show | version | enable_checker |
---|---|---|
step |
1.0 |
true |
- 上次再次输出了大红心♥
- 找到了红心对应的编码
- 黑红梅方都对应有编码
- 原来的编码叫做 ascii️
\u
这种新的编码方式叫unicode- 包括了 中日韩字符集等 各书写系统的字符集
- 但是有个问题
- 拜这个字
- 在字节中应该是b"\x62\xdc"两个字节
- 该如何理解b"\x62\xdc"这两个字节呢?🤔
- 究竟是"拜"
- 还是"bÜ"呢?
- 首先进入 vi
- 然后在插入模式下写一个
一
- 点击桌面上的sougo图表
- 在右下角的键盘位置选择中文
- 然后就可以输入中文了
- :%!xxd
一
字- 存储的状态是
- e4b880
- 三个字节
- 并不是unicode对应的
- 4e00
- 两个字节
- 存储的状态是
- 我们还是得区分一下概念
-
字符集(Character-Set)是
- 指的是字符和序号之间的对应关系
- 函数是
- ord
- chr
-
字符集编码(Character-Set Encoding)
- 指的是把字符集里面的所有字符
- 放到计算机的字节里
- 函数是
- encode
- decode
-
ascii、gb2312、BIG5
- 既是字符集
- 又是字符编码
- unicode如何呢?
- 一般来讲unicode是字符集
- 可以用ord和chr
- 但Unicode一般不做字符集编码
- 用字符集什么来进行字符编码呢?
- utf-8 是一种可变长度的字符编码格式
- 有的时候 1 字节 利用他省空间
- 有的时候 2 字节 利用他很平衡
- 有的时候 3 字节 利用他范围广
- 再往后 利用的更是他范围广
- 这不就两方面好处都得到了么
- utf-8 的意思是
- Unicode Transformation Format – 8-bit
- 这和 unicode 到底有什么区别呢?
- Unicode 是
字符集
- Universal Coded Character Set
- 字符集:为每一个
字符
分配一个唯一的数字ID
- (学名为码位 / 码点 / Code Point / 字符的身份证号)
- 可以在 https://home.unicode.org/
- 找到每一个字符的唯一编码
- utf-8 是
字符集编码方案
- Unicode Transformation Format – 8-bit
- 编码规则:将「码位」转换为字节序列的规则(编码/解码 可以理解为 加密/解密 的过程)
- 而且读到字符之后
- 系统就知道这个到底是几个字节存储的
- 那这个东西怎么具体存储和操作呢?
- 一(4E00) 在上图中
- 属于第三行的范围
- 从 0800-FFFF
- 所以三个字节
- 如下图套入模板
- 具体存储的状态呢?
- :%!xxd
- 说明我们用的确实是utf-8编码
- 可以解码回来吗?
- utf-8 解码 E4B080 转化为 unicode 编码是 4E00
- 后面的
0a
是 换行LineFeed
- 或者叫做
NL(NewLine)
- 如果是两个
一
呢
- 两个字符相同的
- 得到两个同样的三字节utf-8存储
- 以及最后的
0a
依然是 换行LineFeed
- 或者叫做
NL(NewLine)
- 或者叫做
- 第一次编码
- 把汉字编码为
unicode
- 具体就是把
一
编码为 unicode 值0x4e00
这个编号
- 把汉字编码为
- 第二次编码
- 把
unicode
值编码为utf-8
值 - 具体就是把 unicode 值
0x4e00
编码为0xe4b880
- 可以落实到字节里
- 把
-
第一次解码
- 把
utf-8
解码为unicode
- 具体就是把 utf-8 值
0xe4b880
解码为0x4e00
- 把字节还原为序号
- 把
-
第二次解码
- 把
unicode
解码为汉字 - 具体就是把
0x4e00
解码为一
- 找到序号对应的字符
- 把
-
unicode编码是utf-8存储形式和具体汉字中间的桥梁
- 原始字符串
- "一"
- 查看原始字符串utf-8编码
- "一".encode("utf-8")
- 给utf-8编码解码
- b"\xe4\xb8\x80".decode("utf-8")
- 先编码再解码
- "一".encode("utf-8").decode("utf-8")
- 先解码再编码
- b"\xe4\xb8\x80".decode("utf-8").encode("utf-8")
- b"\xe4\xb8\x80"是几个字节的类型呢?
- 前缀 b 表示 byte 字节
- 后面的是 bytes类型对应的 字节序列
- \x 是前缀
- b"\xe4\xb8\x80"是三个字节的序列
- utf-8 是系统默认的编码格式
- 一般都是这种编码格式
- 这一个字符就对应三个字节
- 可以用长度来描述字符么?
- len()函数
- 可以衡量出字符串的长度
- 也可以衡量出编码后字节序列的长度
- ascii[0,127] 字符 的长度
- 就是字节的长度
- 汉字呢?
- 字母
a
对应着一个字节- 汉字
一
对应着三个字节
- 汉字
- 这个unicode的编码空间
- 究竟是怎么安排的呢?
- 所有unicode字符 被分成了4档
- ascii
- 1 字节
- 后面的字符有可能用
- 2 字节
- 3 字节
- 4 字节
- ascii
- 0开头的
- ascii
- 英文字符和数字占据最大范围兼容
- 10开头的
- 2 字节
- 主要是拼音符号文字
- 拉丁
- 希腊
- 西里尔
- 等等
- 110开头的
- 3 字节范围内
- 首先是印度
- 然后是杂项
- 然后是符号
- 日文假名
- 然后是中日韩 CJK
- 3 字节范围内
- 11110开头的
- 4 字节
- 表情符号emoji😈
- 各种扩展集
- unicode字符集 开始逐渐流行
- utf-8所代表的存储编码也开始流行
- 一旦一种编码在世界上开始流行
- 他就会挤压其他的编码方式的生存空间
- 到了 2020 年 95%的网页使用 unicode 编码
- 到了 2021 已经达到了 97.4%
- 他就会挤压其他的编码方式的生存空间
- 感觉这是全球化一体最终的编码方式
- 关于编码的世界大战
- 分久必合
- 最终的胜利者是unicode和utf-8
- 他们彼此也可以相互转化
-
unicode形式
- "\u4e00"
-
把unicode编码按照utf-8编码
- "\u4e00".encode("utf-8")
-
先把unicode编码为utf-8,再解码回unicode
- "\u4e00".encode("utf-8").decode("utf-8")
-
把utf-8编码解码回unicode编码
- b"\xe4\xb8\x80".decode("utf-8")
-
把utf-8编码先解码回unicode编码,再编码为utf-8
- b"\xe4\xb8\x80".decode("utf-8").encode("utf-8")
-
曾经掌握了 ascii 码和 ascii 字符的转化方法
-
也要掌握 unicode 和 utf-8 双向转化的方法
- 在utf-8下中文编码会节省空间吗?
- 中文汉字多
- 信息密度比英文大
- 尤其是长句子
- gb2312系列又如何了呢?
- 80年的gb2312
- 95年的gbk
- 05年有了gb18030
- 全称:国家标准 GB 18030-2005《信息技术中文编码字符集》
- 是中华人民共和国现时最新的内码字集
- 是 GB 18030-2000《信息技术信息交换用汉字编码字符集基本集的扩充》的修订版
- 有多少字符了呢?
- GB 18030 与 GB 2312-1980 和 GBK 兼容
- 共收录汉字70244个
- 与 utf-8 相同
- 采用多字节编码
- 每个字可以由 1 个、2 个或 4 个字节组成
- 编码空间庞大
- utf-8标准海纳百川
- GB18030用的人很少
- 但始终依然存在
- GB18030有什么作用呢?😄
- 有的时候还会遇到 gb18030 编码的文档
- 用 utf-8编码方式
- 打开 gb18030编码 的文件
- 就会乱码
- 这个时候可以在 vim 中使用命令
:edit ++enc=gb18030
- 可以解决问题
- 为什么会发生乱码呢?
'你好'.encode("uft-8")
- 两个汉字被编码为六字节
- 如果按gbk方式解码这六个字节
- 会如何呢?
'你好'.encode("uft-8").decode("gbk")
- 解码方式不对
- 导致不可理解
- gb18030 用的人少
- 有用的人少的好处
- 如果只会用utf-8解码
- 那么gb18030本身就构成了加密系统
- 只有懂汉语并且懂编码才能看懂
- 不懂的话只能见到乱码
- 想要自动翻译都不行
- 这次了解了
unicode
和utf-8
unicode
是字符集utf-8
是一种可变长度的编码方式utf-8
是实现unicode
的存储和传输的现实的方式
-
"拜"字
- unicode编码是0x62dc
- utf-8字节形式是b"\xe6\x8b\x9c"
-
如果我想看看
- b"\x62\xdc"用utf-8解码
- 会得到哪个汉字呢?🤔
- b"\x62\xdc"用utf-8解码
-
我们下次再说!👋