Как преобразовать файл в UTF-8 в Python?
Мне нужно преобразовать кучу файлов в utf-8 в Python, и у меня возникли проблемы с "преобразованием файла".
Я хотел бы сделать эквивалент:
iconv -t utf-8 $file > converted/$file # this is shell code
Спасибо!
10 ответов
Вы можете использовать модуль кодеков, например так:
import codecs
BLOCKSIZE = 1048576 # or some other, desired size in bytes
with codecs.open(sourceFileName, "r", "your-source-encoding") as sourceFile:
with codecs.open(targetFileName, "w", "utf-8") as targetFile:
while True:
contents = sourceFile.read(BLOCKSIZE)
if not contents:
break
targetFile.write(contents)
РЕДАКТИРОВАТЬ: добавлено BLOCKSIZE
параметр для управления размером фрагмента файла.
Это сработало для меня в небольшом тесте:
sourceEncoding = "iso-8859-1"
targetEncoding = "utf-8"
source = open("source")
target = open("target", "w")
target.write(unicode(source.read(), sourceEncoding).encode(targetEncoding))
Спасибо за ответы, это работает!
И так как исходные файлы имеют смешанный формат, я добавил список исходных форматов, которые нужно попробовать по очереди (sourceFormats
) и на UnicodeDecodeError
Я пробую следующий формат:
from __future__ import with_statement
import os
import sys
import codecs
from chardet.universaldetector import UniversalDetector
targetFormat = 'utf-8'
outputDir = 'converted'
detector = UniversalDetector()
def get_encoding_type(current_file):
detector.reset()
for line in file(current_file):
detector.feed(line)
if detector.done: break
detector.close()
return detector.result['encoding']
def convertFileBestGuess(filename):
sourceFormats = ['ascii', 'iso-8859-1']
for format in sourceFormats:
try:
with codecs.open(fileName, 'rU', format) as sourceFile:
writeConversion(sourceFile)
print('Done.')
return
except UnicodeDecodeError:
pass
def convertFileWithDetection(fileName):
print("Converting '" + fileName + "'...")
format=get_encoding_type(fileName)
try:
with codecs.open(fileName, 'rU', format) as sourceFile:
writeConversion(sourceFile)
print('Done.')
return
except UnicodeDecodeError:
pass
print("Error: failed to convert '" + fileName + "'.")
def writeConversion(file):
with codecs.open(outputDir + '/' + fileName, 'w', targetFormat) as targetFile:
for line in file:
targetFile.write(line)
# Off topic: get the file list and call convertFile on each file
# ...
(РЕДАКТИРОВАТЬ Рудро Бадхон: это включает в себя оригинальную попытку нескольких форматов, пока вы не получите исключение, а также альтернативный подход, который использует chardet.universaldetector)
Ответ для неизвестного типа кодировки источника
на основе @ Себастьян РоккаСерра
python3.6
import os
from chardet import detect
# get file encoding type
def get_encoding_type(file):
with open(file, 'rb') as f:
rawdata = f.read()
return detect(rawdata)['encoding']
from_codec = get_encoding_type(srcfile)
# add try: except block for reliability
try:
with open(srcfile, 'r', encoding=from_codec) as f, open(trgfile, 'w', encoding='utf-8') as e:
text = f.read() # for small files, for big use chunks
e.write(text)
os.remove(srcfile) # remove old encoding file
os.rename(trgfile, srcfile) # rename new encoding
except UnicodeDecodeError:
print('Decode Error')
except UnicodeEncodeError:
print('Encode Error')
Вы можете использовать этот один лайнер (при условии, что вы хотите преобразовать из utf16 в utf8 )
python -c "from pathlib import Path; path = Path('yourfile.txt') ; path.write_text(path.read_text(encoding='utf16'), encoding='utf8')"
Где
yourfile.txt
это путь к вашему $ файлу .
Для этого вам понадобится python 3.4 или новее (вероятно, сейчас вы это делаете).
Ниже более читабельная версия приведенного выше кода
from pathlib import Path
path = Path("yourfile.txt")
path.write_text(path.read_text(encoding="utf16"), encoding="utf8")
Это функция Python3 для преобразования любого текстового файла в файл с кодировкой UTF-8. (без использования ненужных пакетов)
def correctSubtitleEncoding(filename, newFilename, encoding_from, encoding_to='UTF-8'):
with open(filename, 'r', encoding=encoding_from) as fr:
with open(newFilename, 'w', encoding=encoding_to) as fw:
for line in fr:
fw.write(line[:-1]+'\r\n')
Вы можете легко использовать его в цикле для преобразования списка файлов.
Чтобы угадать, какова исходная кодировка, вы можете использовать file
*nix команда.
Пример:
$ file --mime jumper.xml
jumper.xml: application/xml; charset=utf-8
преобразовать весь файл в каталоге в кодировку utf-8. он рекурсивен и может фильтровать файлы по суффиксу. спасибо @Sole Sensei
# pip install -i https://pypi.tuna.tsinghua.edu.cn/simple chardet
import os
import re
from chardet import detect
def get_file_list(d):
result = []
for root, dirs, files in os.walk(d):
dirs[:] = [d for d in dirs if d not in ['venv', 'cmake-build-debug']]
for filename in files:
# your filter
if re.search(r'(\.c|\.cpp|\.h|\.txt)$', filename):
result.append(os.path.join(root, filename))
return result
# get file encoding type
def get_encoding_type(file):
with open(file, 'rb') as f:
raw_data = f.read()
return detect(raw_data)['encoding']
if __name__ == "__main__":
file_list = get_file_list('.')
for src_file in file_list:
print(src_file)
trg_file = src_file + '.swp'
from_codec = get_encoding_type(src_file)
try:
with open(src_file, 'r', encoding=from_codec) as f, open(trg_file, 'w', encoding='utf-8') as e:
text = f.read()
e.write(text)
os.remove(src_file)
os.rename(trg_file, src_file)
except UnicodeDecodeError:
print('Decode Error')
except UnicodeEncodeError:
print('Encode Error')
import codecs
import glob
import chardet
ALL_FILES = glob.glob('*.txt')
def kira_encoding_function():
"""Check encoding and convert to UTF-8, if encoding no UTF-8."""
for filename in ALL_FILES:
# Not 100% accuracy:
# https://stackoverflow.com/a/436299/5951529
# Check:
# https://chardet.readthedocs.io/en/latest/usage.html#example-using-the-detect-function
# https://stackoverflow.com/a/37531241/5951529
with open(filename, 'rb') as opened_file:
bytes_file = opened_file.read()
chardet_data = chardet.detect(bytes_file)
fileencoding = (chardet_data['encoding'])
print('fileencoding', fileencoding)
if fileencoding in ['utf-8', 'ascii']:
print(filename + ' in UTF-8 encoding')
else:
# Convert file to UTF-8:
# https://stackoverflow.com/q/19932116/5951529
cyrillic_file = bytes_file.decode('cp1251')
with codecs.open(filename, 'w', 'utf-8') as converted_file:
converted_file.write(cyrillic_file)
print(filename +
' in ' +
fileencoding +
' encoding automatically converted to UTF-8')
kira_encoding_function()
Это мой метод грубой силы. Он также заботится о смешанных \n и \r\n во входных данных.
# open the CSV file
inputfile = open(filelocation, 'rb')
outputfile = open(outputfilelocation, 'w', encoding='utf-8')
for line in inputfile:
if line[-2:] == b'\r\n' or line[-2:] == b'\n\r':
output = line[:-2].decode('utf-8', 'replace') + '\n'
elif line[-1:] == b'\r' or line[-1:] == b'\n':
output = line[:-1].decode('utf-8', 'replace') + '\n'
else:
output = line.decode('utf-8', 'replace') + '\n'
outputfile.write(output)
outputfile.close()
except BaseException as error:
cfg.log(self.outf, "Error(18): opening CSV-file " + filelocation + " failed: " + str(error))
self.loadedwitherrors = 1
return ([])
try:
# open the CSV-file of this source table
csvreader = csv.reader(open(outputfilelocation, "rU"), delimiter=delimitervalue, quoting=quotevalue, dialect=csv.excel_tab)
except BaseException as error:
cfg.log(self.outf, "Error(19): reading CSV-file " + filelocation + " failed: " + str(error))