编码(python版)最近在学习python的过程中,被不同的编码搞得有点晕,于是看了前人的留下的文档,加上自己的理解,准备写下来,分享给正在为编码苦苦了挣扎的你。
编码的概念编码就是将信息从一种格式转换成另一种格式,计算机只认识二进制,简单的理解,将我们眼睛看到的文字转换为计算机能够识别的二进制格式视为编码,而二进制以某种编码格式转换为我们能看的文字的过程可以看成是解码。既然计算机只能认识二进制0,1,那么我们用的字母、数字和文字等是怎样和他们对应的呢?那就请继续看吧!
python中查看默认的编码规范是:
import sysprint(sys.getdefaultencoding())#运行结果:utf-8
ascⅱ码我们都知道计算机是米国发明的,起初的时候也只有米国那些国家使用,而他们的语言仅仅只有26个字母组成,再加上一些符号,所以在一开始的时候,用的编码规则就是ascⅱ码。ascⅱ,中文名叫美国信息交换标准代码,因为名叫american standard code for information interchange,下面我们来看看ascⅱ表:
ascⅱ码用一个字节,也就是8位二进制组来标识一个字符,比如00100001就代表字符!,第一版的ascⅱ没有用到最高的一个bit,所以取值范围为0-127,只能表示128字符。为了满足西欧等国家的字符要求,于是用上了最高位的bit,能表示的字符也从128增加到了256个。
在python中使用函数ord(),可以字符转换为对应数值,使用函数chr可以将数值转换为对应字符:
>>> ord(a) #将字符转换为数值97>>> ord(a)65>>> chr(65)'a'>>> chr(97) #将数值转换为字符'a'>>>
gb2312和gbk当计算机漂洋过海来到了中国,ascⅱ已经不能满足我大天朝的需求了,常用的汉字大致都有2k-3k。所以中国国家标准总局在1980发布了《信息交换用汉字编码字符集》,也就是gb2313标准。gb2312一共收录了7445个字符(6763个汉字和682个其他符号),包括拉丁字母、希腊字母和日文平假名等,基本上满足了国人的需求。
在gb2312中每个汉字使用两个字节来表示,分为高字节和低字节,汉字区高字节从b0-f7,低字节从a1-fe,占用的码位是72*94=6768,其中有5个空位是d7fa-d7fe,规定第一个字节大于127的就代表这是一个汉字的开始(这一个字节和下一个字节就代表一个汉字),每个字节的最高位都位1。
但是对于人名、古汉语等方面出现的罕用字,gb2312不能处理,后来就出现了gbk。gbk向下兼容gb2312,其编码范围从8140到fefe(不包括xx7f),共23940个码位,共收录了21003个汉字,这还是很厉害的了。现在我们使用的计算机默认的就是gbk编码。
unicode和utf-8我们国家搞出了gbk,其他的国家也搞出了各种各样的编码,比如小日本的sjij,宝岛台湾的big5,国际组织一看,这不行啊,每个地方都各自搞各自的,那么在不同的国家之间就会出现不兼容,我用gbk编码格式写的软件,弄到你编码格式为sjij的计算机就不能执行了。所以就出现了unicode,也称万国码。unicode是用2个字节来表示一个字符的,65536类个字符,这足以覆盖世界上所有的文字。
这样虽好,但是美国人民就不开心了,我一个字母,比如'a'就需要占用一个字节,现在需要占用两个字节,这样就大大的浪费了内存和硬盘的空间,所有后来就出现了utf-32,utf-16和utf-8,前两个这里就不在敖述了,现在并不常用,我们这看看这个utf-8,utf-8是一种可变长的编码格式,存储英文字母只需要一个字节,存储汉字需要3个字节,但超大字符集中的更大多数汉字要占4个字节。我们在内存里面的数据是unicode,在传输数据和保存数据的时候使用utf-8已节省空间和带宽。
python2的编码在python2中默认的编码是ascii,python2的字符串类型有两种:str和unicode,这两个只是字符串类型的名字,我们主要看它们在内存里面的内存地址:
= = u repr(name2)
#输出结果
'\xe5\xbd\xac\xe5\xbd\xac' #字节数据
u'\u5f6c\u5f6c' #unicode数据
在python2中,str类型字符串类型在内存中存储的是bytes数据,unicode类型字符串在内存中存储的是unicode数据。那两种数据之间是什么关系了?这里就涉及到了解码(encode)和编码(decode)了。
= name2 = u = name.decode(= name2.encode(<type ><type >
由上运行结果可知,unicode转换为bytes数据的过程是编码。从bytes数据转换为unicode数据的过程是解码。我们再来看一下:
#coding=utf8name = '彬彬'name3 = name.decode('big5')print name3#运行结果敶砍蓮
我们可以看到得到一堆乱文,name存在内存里的时候是以utf编码成的bytes数据,而我们这里decode('big5')使用big5来解码,虽然成功了,但是输出结果却不是我们想要的结果。
当我们把第一行coding改为big5的时候就不会出现乱文了,
#coding=big5name = '彬彬'name3 = name.decode('big5')print name3#运行结果彬彬
所以我们用什么规则编码的就要用什么区解码!
注意:我们在终端显示出来的明文,就是你用户所看到的,其实都是已经转换成unicode到内存里面,而bytes数据一般都是计算机识别的。
python3的编码在python3中也定义了2种类型的字符串类型,str和bytes,str类型存储unicode数据,bytes类型存储bytes数据。
name = 彬彬name2 = bhelloprint(type(name))print(type(name.encode('utf8')))print(type(name.encode('gbk')))print(type(name2))print(type(name2.decode('utf8')))#运行结果<class 'str'>
<class 'bytes'>
<class 'bytes'>
<class 'bytes'>
<class 'str'>
如上运行结果,bytes转换为unicode为解码,uicode转为bytes数据类型为编码。
由上图所示,在不同的编码之间转换的时候,我们都要经过unicode这个中转站,没办法,虽然unicode老大哥强大呢,当我们想把utf-8编码的数据转换为gbk的,我们就需要把utf-8的数据先解码成unicode,再由unicode编码成gbk。
在py2和py3中有个重要的区分就是,py2会自动把bytes数据解码成unicode,而py3就不会自动把bytes解码成unicode了。所以说py3更清晰的区分了bytes数据和unicode。
#py2中print(uliu + bin)#运行结果liubin
( + b, line 2, <module>( + bbytes
print(liu + (bbin).decode('utf8'))
#运行结果
liubin
一个.py文件的一生 那我们创建.py文件,到执行.py文件,这里面的编码和解码是怎么来的呢?
1.当我们创建一个.py文件的时候,会有一个默认的编码格式(这里以pycharm为例),在右下角,默认是utf-8,当然你也可以选择其他的编码:
2.当我们在.py文件里面写入代码的时候,会以unicode的编码格式保存在内存中;
print(你好,世界!)
3.当我们保存的时候,会将unicode数据编码成utf-8格式的数据,然后保存在硬盘里面;
4.当我们执行文件的时候,pycharm会调用python的解释器来读取文件,在py2中,默认会以ascii将代码解码成unicode数据,但是ascii码并不认识中文,所以就会出现报错。
file e:/py/�ַ�����.py, line 2syntaxerror: non-ascii character '\xe4' in file e:/py/�ַ�����.py on line 2, but no encoding declared; see for details
所以,在py2中,我们需要加上:
#coding=utf8print(你好,世界!)#运行结果你好,世界!
但是在py3中就不存在这个问题了,只要编码的时候适用的是utf-8,python3默认的编码规范就是utf-8,它会用utf-8来将utf-8的bytes数据解码成unicode,然后在计算机终端显示!
以上就是编码的秘密(python版)的详细内容。