Python Unicode
Un article de Haypo.
Python et Unicode
Depuis sa version 2.0, publié en octobre 2000, Python possède le type « unicode » qui permet de stocker du texte dans le charset Unicode. En interne, c'est un type de 16 bits (UCS-2) ou 32 bits (UCS-4) qui est utilisé. On est donc limité aux codes 0 à 65.535 / 0 à 4.294.967.295. Testez avec :
>>> import sys; print sys.maxunicode 1114111
(résultat sur Ubuntu Feisty, Python 2.5.1)
Conférence Pycon FR 2009
J'ai donné une conférence fin mai 2009 sur Unicode :
- Voir la vidéo de la conférence Comprendre les erreurs Unicode
- Diaporama (pdf) de la conférence
Travailler en Unicode
Avec Python 2.x, str() contient des octets et unicode() contient des caractères. Pour travailler simplement en Unicode, il faut travailler le plus longtemps possible avec des caractères (type 'unicode'). C'est-à-dire :
- Entrée : les convertir le plus tôt possible en unicode
- Sortie : les convertir le plus tard possible en octets
Pour les fichiers : utiliser le module codecs, « codecs.open(filename, mode, charset) » convertit automatiquement les lignes d'un fichier texte.
Deviner le jeu de caractères
Terminal
Pour détecter le jeu de caractères du terminal, utilisez la fonction getTerminalCharset().
Système de fichier
sys.getfilesystemencoding() indique le jeu de caractères par défaut du système de fichier.
isASCII()
def isASCII(text): try: text = unicode(text, 'ASCII', 'strict') return True except UnicodeDecodeError: return False
Comprendre le résultat :
- False indique que text contient des valeurs supérieures ou égales à 128
- True indique que text utilise (semble utiliser ?) le charset ASCII
isUTF8()
def isUTF8(text): try: text = unicode(text, 'UTF-8', 'strict') return True except UnicodeDecodeError: return False
Comprendre le résultat :
- False indique que la conversion a échoué, une séquence d'octets invalide a été trouvée (chaîne tronquée ? autre charset utilisé ?)
- True indique que la conversion s'est bien déroulée, il y a de très fortes chances que la chaîne soit formatée en UTF-8
guessBytesCharset()
J'ai écrit ma fonction minimaliste pour différencier ASCII, UTF-8 et ISO-8859-1 : fonction guessBytesCharset().
Pour les besoins plus lourds (différencier les différents ISO-8859-*, les jeux de caractères asiatiques, etc.) : consultez mon article Détecter un charset.
Si la détection échoue, utilisez le charset "ISO-8859-1". Mais ceci risque de poser des problèmes...
Ne pas mélanger !
Mélange des octets et des caractères peut déclencher des erreurs inattendues. Exemple :
>>> u"a" + "é" UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 0: ordinal not in range(128)
Erreur typique : quand on mélange les types str et unicode, Python va tenter de convertir les chaînes d'octets (str) en utilisant le charset le plus restrictif qu'il existe : ASCII en mode strict !
>>> unicode("é", "ASCII", "strict") UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 0: ordinal not in range(128)
Solution : convertir toutes les variables en utilisant le charset adéquat :
- Si c'est une chaîne écrite directement dans le code, lui ajouter le préfixe u : remplacer « "é" » par « u"é" ». Il faudra peut-être rajouter le charset au début de votre fichier source, du genre :
# -*- coding: utf8 -*-
- Si la chaîne vient d'une base de données : configurer la base pour qu'elle donne de l'unicode ou convertir manuellement en utilisant le charset utilisé par la base de données
- Si la chaîne vient de raw_input() : utiliser le charset du terminal (voir plus bas dans cet article)
- D'une manière générale : récupérer le bon charset et écrire « chaine = unicode(chaine, charset) »
Des fois ça marche !
Malheureusement pour nous, pauvres programmeurs, des fois les mélanges str/unicode fonctionnent ! C'est quand la chaîne d'octets ne contient que des codes dans l'interface [0; 127] : charset ASCII. Exemple :
>>> print u"salut %s !" % "victor" salut victor !
Ce comportement laisse penser que ça marche, or ça ne fonctionne pas toujours :
>>> print u"salut %s !" % "hervé" UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 4: ordinal not in range(128)
Solution : comme toujours, s'assurer qu'on ne manipule que de l'Unicode :
(prenom est par exemple saisi au clavier par l'utilisateur) >>> prenom = unicode(prenom, "utf8") >>> print u"salut %s !" % prenom salut hervé !
Attention à bien saisir le bon charset sous peine d'avoir un problème au moment de la conversion :
(...) >>> prenom = unicode(prenom, "utf8") UnicodeDecodeError: 'utf8' codec can't decode byte 0xff in position 0: unexpected code byte (...)
Exception
La classe BaseException n'a pas de méthode __unicode__(). Du coup, unicode(Exception(u"\xE9")) appelle __str__(). Or la méthode __str__() tente de faire u"\xE9".encode("ASCII", "strict"), ce qui échoue :-(
Idée pour contourner le problème :
- Créer une classe UnicodeException qui contient un attribut unicode_message
- Convertir le message ASCII pour le contructeur d'Exception
Implémentation :
class UnicodeException(Exception): def __init__(self, message): if isinstance(message, unicode): self.unicode_message = message message = message.encode('ASCII', 'replace') else: message = str(message) try: self.unicode_message = unicode(message, "utf8") except UnicodeEncodeError: self.unicode_message = unicode(message, "ISO-8859-1") Exception.__init__(self, message) def __unicode__(self): return self.unicode_message
Type str
Le type « str » ne devrait pas servir à contenir du texte. C'est un tableau d'octet et sûrement pas un tableau de caractères (contrairement au type « unicode »).
Encodage
Encodage "=E9" (MIME)
Pour décoder la chaîne "S=C3=A9bastien", on peut utiliser la regex du pauvre :
>>> import re; re.sub("=([A-F0-9]{2})", lambda regs: chr(int(regs.group(1), 16)), "S=C3=A9bastien") 'S\xc3\xa9bastien'
Mais le module mimify sert exactement à ça :-)
Encodage "%E9" (HTML)
Pour décoder la chaîne "S%E9bastien", on peut utiliser :
>>> import urllib; unicode(urllib.unquote("S%E9bastien"), "ISO-8859-1") u'S\xe9bastien'
Base64
Pour décoder des données encodée en base64 (ex: 'VG90bw=='), le module base64 dispose des fonctions b64encode() et b64decode().
Voir aussi la RFC 3548, The Base16, Base32, and Base64 Data Encodings.
Autres encodages
Voir aussi les modules binascii, quopri (quoted printable), uu, etc.
Conversion en ASCII (supprimer les accents)
Voir mon script unicode2ascii.py.
Voir également le billet de Peter Bengtsson : Unicode strings to ASCII... nicely.
Base de données
- MySQL
- db = MySQLdb.connect(..., use_unicode="True", charset="utf8")
- Une table MySQL a un jeu de caractères : « CREATE TABLE .... [DEFAULT] CHARACTER SET charset_name [COLLATE collation_name] » (depuis MySQL 4.1)
- MySQL n'aime pas "utf-8", utiliser utf8
- Lire le chapitre Chapitre 10. Jeux de caractères et Unicode de la documentation MySQL
Texte encodé deux fois en UTF-8
Fonction pour convertir du texte encodé deux fois en UTF-8 :
def decodeUtf8Utf8(octets): return octets.decode("utf8").encode("latin1").decode("utf8")
Exemple d'utilisation :
>>> print decodeUtf8Utf8('\xc3\x83\xc2\xa9') é
Si vous avez une chaîne unicode :
>>> print decodeUtf8Utf8(u'\xc3\x83\xc2\xa9'.encode("latin1")) é
Python3
- PEP 383: Non-decodable Bytes in System Character Interfaces
- Issue #5915: Implement PEP 383, Non-decodable Bytes in System Character Interfaces.
- Issue #3672: Reject surrogates in utf-8 codec; add surrogates error handler.
- Issue #3187: os.listdir can return byte strings
En pratique avec Python3
Jeu de caractères par défaut
- Exemple d'utilisation : b"abc".decode()
- sys.getdefaultencoding()
- sys.setdefaultencoding()
- Python3 : "utf8" (non modifiable)
Nom de fichiers et variables d'environnement
- Jeu de caractères sys.getdefaultencoding(), "surrogateescape" error handler
- sys.getfilesystemencoding()
- Windows : "mbcs"
- Mac OS X : "utf-8"
- Autre : nl_langinfo(CODESET), ou "utf8" si nl_langinfo() échoue ou n'existe pas
- (sys.setfilesystemencoding() : fonction supprimée par le module site)
locales, TextIOWrapper et sys.std*
locale.getpreferredencoding() :
- Windows : _locale._getdefaultlocale()[1]
- POSIX avec CODESET : modifie la locale avec setlocale(LC_TYPE, "") (sauf si l'argument do_setlocale est défini à False) puis appelle nl_langinfo(CODESET). Sous Mac OS X, renvoie "utf-8" le résultat est None
- POSIX sans CODESET : getdefaultlocale()[1], ou "ascii" si le résultat est None
Lecture du jeu de caractères avec locale._getdefaultlocale() :
- _locale._getdefaultlocale() si la fonction existe
- Sinon cherche la première variable d'environnement définie parmis LC_ALL, LC_CTYPE, LANG, LANGUAGE : utilise "C" si aucune n'est définie. Puis devine le jeu de caractères à partir de la locale :
- Si la locale contient un point : ce qui est écrit après le point ("fr_FR.utf8" => UTF-8)
- ISO-8859-15 si la locale se termine par "..."@euro"
- None sinon
os.device_encoding(fd) :
- Windows : GetConsoleCP() si fd==0, GetConsoleOutputCP() si fd in (1, 2), None sinon
- POSIX : nl_langinfo(CODESET) (sans modifier la locale)
Choix du jeu de caractères par io.TextIOWrapper() si l'encodage n'est pas spécifié :
- os.device_encoding(buffer.fileno())
- ou locale.getpreferredencoding()
- ou "ascii"
- Note : utilise errors="strict" si errors n'est pas spécifié
sys.stdin, sys.stdout, sys.stderr :
- Si la variable d'environnement PYTHONIOENCODING est définie, l'utilise (ex: "PYTHONIOENCODING=utf8" ou "PYTHONIOENCODING=utf8:backslashreplace")
- Sinon, délègue le choix à TextIOWrapper()
En pratique avec Python3 (code source)
a :
- PyUnicode_GetDefaultEncoding(), PyUnicode_SetDefaultEncoding
- En Python : sys.getdefaultencoding()
- PyUnicode_GetDefaultEncoding() est utilisé quand encoding==NULL, exemple Python : b"abc".decode()
- Python3 : valeur utf8, non modifiable
- sys.getfilesystemencoding()
- Python/pythonrun.c : Py_InitializeEx() initialise Py_FileSystemDefaultEncoding avec nl_langinfo(CODESET)
- Python/bltinmodule.c : Py_FileSystemDefaultEncoding
- Défaut : "mbcs" sous Windows", "utf8" sous Mac OS X, None sinon
b :
- os.environ
- Modules/posixmodule.c : convertenviron()
- Windows : PyUnicode_FromWideChar()
- POSIX : PyUnicode_Decode(..., Py_FileSystemDefaultEncoding, "surrogateescape")
c :
- locale.getpreferredencoding()
- Windows : _locale._getdefaultlocale()[1]
- POSIX avec CODESET : setlocale(LC_TYPE, ""); nl_langinfo(CODESET); setlocale(LC_TYPE, oldloc) ou "utf8"
- POSIX sans CODESET : getdefaultlocale()[1] ou "ascii", parse les variables d'environnement
- os.device_encoding(buffer.fileno())
- Windows : GetConsoleCP() si fd==0, GetConsoleOutputCP() si fd in (1, 2), None sinon
- POSIX : nl_langinfo(CODESET)
- io.TextIOWrapper() si encoding==None :
- os.device_encoding(buffer.fileno())
- ou locale.getpreferredencoding()
- ou "ascii"
d :
- sys.stdin, sys.stdout, sys.stderr
- sys.stdin.encoding, sys.stdout.encoding, sys.stderr.encoding
- Python/pythonrun.c : initstdio()
- Variable d'environement PYTHONIOENCODING : PYTHONIOENCODING=utf8 ou PYTHONIOENCODING=utf8:backslashreplace
- Appelle io.TextIOWrapper(..., encoding, errors, ...)
Python 3.2 sous Linux :
>>> locale.getpreferredencoding() 'UTF-8' >>> sys.getdefaultencoding() 'utf-8' >>> sys.getfilesystemencoding() 'utf-8' >>> sys.stdout.encoding 'UTF-8'
Python 3.2 sous Linux avec LANG= :
>>> locale.getpreferredencoding() 'ANSI_X3.4-1968' >>> sys.getdefaultencoding() 'utf-8' >>> sys.getfilesystemencoding() 'ascii' >>> sys.stdout.encoding 'ANSI_X3.4-1968'
Voir aussi
Lire aussi
- Charsets et encoding (et Python)
- (en) Python Unicode Tutorial
- (en) Unicode data in Django