IT干货网

Python编码格式

wuhuacong 2022年09月17日 编程设计 101 0

python编码介绍

python3在内存中是用unicode编码方式存储的,所以不能直接储存和传输,要转化为其他编码进行储存和传输。

字符串通过编码转换成字节码,字节码通过解码成为字符串

转码(都变为字节)
encode:str --> bytes

解码(可以将字节解码成指定的编码格式)
decode:bytes --> str

关于ascii编码

因为计算机只能处理数字,如果要处理文本,就必须先把文本转换为数字才能处理。最早的计算机在设计时采用8个比特(bit)作为一个字节(byte),所以,一个字节能表示的最大的整数就是255(二进制11111111=十进制255),如果要表示更大的整数,就必须用更多的字节。比如两个字节可以表示的最大整数是65535,4个字节可以表示的最大整数是4294967295。

由于计算机是美国人发明的,因此,最早只有127个字符被编码到计算机里,也就是大小写英文字母、数字和一些符号,这个编码表被称为ASCII编码,比如大写字母A的编码是65,小写字母z的编码是122。

但是要处理中文显然一个字节是不够的,至少需要两个字节,而且还不能和ASCII编码冲突,所以,中国制定了GB2312编码,用来把中文编进去。

因此,Unicode应运而生。Unicode把所有语言都统一到一套编码里,这样就不会再有乱码问题了。

关于Unicode编码

Unicode把所有语言都统一到一套编码里,这样就不会再有乱码问题了。

ASCII编码是1个字节,而Unicode编码通常是2个字节。

字母A用ASCII编码是十进制的65,二进制的01000001;

字符0用ASCII编码是十进制的48,二进制的00110000,注意字符’0’和整数0是不同的;

汉字中已经超出了ASCII编码的范围,用Unicode编码是十进制的20013,二进制的01001110 00101101。

你可以猜测,如果把ASCII编码的A用Unicode编码,只需要在前面补0就可以,因此,A的Unicode编码是00000000 01000001。

如果统一成Unicode编码,乱码问题从此消失了。但是,如果你写的文本基本上全部是英文的话,用Unicode编码比ASCII编码需要多一倍的存储空间,在存储和传输上就十分不划算。

所以,本着节约的精神,又出现了把Unicode编码转化为“可变长编码”的UTF-8编码。UTF-8编码把一个Unicode字符根据不同的数字大小编码成1-6个字节,常用的英文字母被编码成1个字节,汉字通常是3个字节,只有很生僻的字符才会被编码成4-6个字节。如果你要传输的文本包含大量英文字符,用UTF-8编码就能节省空间:

在计算机内存中,统一使用Unicode编码,当需要保存到硬盘或者需要传输的时候,就转换为UTF-8编码。

用记事本编辑的时候,从文件读取的UTF-8字符被转换为Unicode字符到内存里,编辑完成后,保存的时候再把Unicode转换为UTF-8保存到文件

浏览网页的时候,服务器会把动态生成的Unicode内容转换为UTF-8再传输到浏览器

python3的编码细节

  1. python2中默认使用ascii,python3中默认使用utf-8

  2. Python2中,str就是编码后的结果bytes,str=bytes,所以s只能decode。

  3. python3中的字符串与python2中的u’字符串’,都是unicode,只能encode,所以无论如何打印都不会乱码,因为可以理解为从内存打印到内存,即内存->内存,unicode->unicode

  4. python3中,str是unicode,当程序执行时,无需加u,str也会被以unicode形式保存新的内存空间中,str可以直接encode成任意编码格式,
    比如: s.encode(‘utf-8’),s.encode(‘gbk’)

    unicode(str)-----encode---->utf-8(bytes)
    utf-8(bytes)-----decode---->unicode

  5. 在windows终端编码为gbk,linux是UTF-8.

查询编码格式

需要导入包
import chardet 没有的话自行安装

查询文件编码格式

def get_encode_info(file): 
    with open(file, 'rb') as f: 
        return chardet.detect(f.read())['encoding'] 

查询字符串…内容编码格式

def get_encode_info_s(file): 
   return chardet.detect(file.encode())['encoding'] 
 

编码转换

文件编码转换

字符串…内容编码转换

name = r"\u6697\u88d4\u5251\u9b54" 
print("解码之前的编码格式:"+get_encode_info_s(name)) 
# 转码为utf-8(默认的), 然后解码为python能识别的unicode码 
str2 = name.encode().decode("unicode-escape") 
print("-----------"+str2) 
print("解码之后的编码格式:"+get_encode_info_s(str2)) 

结果:

解码之前的编码格式:ascii
-----------暗裔剑魔
解码之后的编码格式:utf-8

文件编码转换

from chardet.universaldetector import UniversalDetector 
 
# 获取文件编码 
def get_encode_info(file): 
 with open(file, 'rb') as f: 
     detector = UniversalDetector() 
     for line in f.readlines(): 
         detector.feed(line) 
         if detector.done: 
             break 
     detector.close() 
     return detector.result['encoding'] 
 
def read_file(file): 
    with open(file, 'rb') as f: 
        return f.read() 
 
def write_file(content, file): 
    with open(file, 'wb') as f: 
        f.write(content) 
 
def convert_encode2utf8(file, original_encode, des_encode): 
    file_content = read_file(file) 
    file_decode = file_content.decode(original_encode,'ignore') 
    file_encode = file_decode.encode(des_encode) 
    write_file(file_encode, file) 
 
 
# fileName文件全路径 
# code 需要转换为什么编码,默认utf-8 
def fileDecode(fileName,code="utf-8"): 
    file_content = read_file(fileName) 
    encode_info = get_encode_info(fileName) 
    if encode_info != code: 
        convert_encode2utf8(fileName, encode_info, code) 
 
    return  get_encode_info(fileName) 
 
if __name__ == "__main__": 
    filename1 = r'C:\Users\huanmin\Desktop\源码\CHANGES.txt' 
    print(fileDecode(filename1)) 

我们可以通过Notepad++ 打开文件右下角可以看到当前文件的编码格式
在这里插入图片描述
转码后效果

在这里插入图片描述


本文参考链接:https://huanmin.blog.csdn.net/article/details/121634426
评论关闭
IT干货网

微信公众号号:IT虾米 (左侧二维码扫一扫)欢迎添加!