char c = '\u534e';System.out.println(c);//华
int i = 0x534e;System.out.println((char)i);   //21326
也就是说在unicode编码中是用21326来表示汉字"华"的。
十六进制的0x534e和十进制的21326用二进制表示为"01010011 01001110"
由于我想unicode编码一个字符占两个字节
是不是第一个字节的底层二进制表示为"01010011",第二个字节的底层二进制表示为"01001110"然而
String s = "华";
byte[] bytes = s.getBytes();
得到的这两个字节变成二进制后发现和上面的不一样了。不知道是哪个环节理解的偏差?