Python Unicode

Un article de Haypo.

(Différences entre les versions)
Version du 28 février 2011 à 16:09 (modifier)
Haypo (Discuter | Contributions)
(Base de données)
← Différence précédente
Version du 28 février 2011 à 16:12 (modifier) (défaire)
Haypo (Discuter | Contributions)
(Base de données)
Différence suivante →
Ligne 172 : Ligne 172 :
* LDAP (python-ldap) * LDAP (python-ldap)
** LDAP parle UTF-8 depuis la version 3 ([http://tools.ietf.org/html/rfc4511 RFC 4511]) ** LDAP parle UTF-8 depuis la version 3 ([http://tools.ietf.org/html/rfc4511 RFC 4511])
 +** en février 2011, python-ldap ne supportait pas encore le type unicode de Python2 pour consever la compatibilité LDAP version 2 qui exige un encodage explicite
== Texte encodé deux fois en UTF-8 == == Texte encodé deux fois en UTF-8 ==

Version du 28 février 2011 à 16:12

Retour à la page précédente Retour à Python

Sommaire

Python et Unicode

Depuis sa version 2.0, publié en octobre 2000, Python possède le type « unicode » qui permet de stocker du texte dans le charset Unicode. En interne, c'est un type de 16 bits (UCS-2) ou 32 bits (UCS-4) qui est utilisé. On est donc limité aux codes 0 à 65.535 / 0 à 4.294.967.295. Testez avec :

>>> import sys; print sys.maxunicode
1114111

(résultat sur Ubuntu Feisty, Python 2.5.1)

Conférence Pycon FR 2009

J'ai donné une conférence fin mai 2009 sur Unicode :

Travailler en Unicode

Avec Python 2.x, str() contient des octets et unicode() contient des caractères. Pour travailler simplement en Unicode, il faut travailler le plus longtemps possible avec des caractères (type 'unicode'). C'est-à-dire :

  • Entrée : les convertir le plus tôt possible en unicode
  • Sortie : les convertir le plus tard possible en octets

Pour les fichiers : utiliser le module codecs, « codecs.open(filename, mode, charset) » convertit automatiquement les lignes d'un fichier texte.

Deviner le jeu de caractères

Terminal

Pour détecter le jeu de caractères du terminal, utilisez la fonction getTerminalCharset().

Système de fichier

sys.getfilesystemencoding() indique le jeu de caractères par défaut du système de fichier.

isASCII()

def isASCII(text):
    try:
        text = unicode(text, 'ASCII', 'strict')
        return True
    except UnicodeDecodeError:
        return False

Comprendre le résultat :

  • False indique que text contient des valeurs supérieures ou égales à 128
  • True indique que text utilise (semble utiliser ?) le charset ASCII

isUTF8()

def isUTF8(text):
    try:
        text = unicode(text, 'UTF-8', 'strict')
        return True
    except UnicodeDecodeError:
        return False

Comprendre le résultat :

  • False indique que la conversion a échoué, une séquence d'octets invalide a été trouvée (chaîne tronquée ? autre charset utilisé ?)
  • True indique que la conversion s'est bien déroulée, il y a de très fortes chances que la chaîne soit formatée en UTF-8

guessBytesCharset()

J'ai écrit ma fonction minimaliste pour différencier ASCII, UTF-8 et ISO-8859-1 : fonction guessBytesCharset().

Pour les besoins plus lourds (différencier les différents ISO-8859-*, les jeux de caractères asiatiques, etc.) : consultez mon article Détecter un charset.

Si la détection échoue, utilisez le charset "ISO-8859-1". Mais ceci risque de poser des problèmes...

Ne pas mélanger !

Mélange des octets et des caractères peut déclencher des erreurs inattendues. Exemple :

>>> u"a" + "é"
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 0: ordinal not in range(128)

Erreur typique : quand on mélange les types str et unicode, Python va tenter de convertir les chaînes d'octets (str) en utilisant le charset le plus restrictif qu'il existe : ASCII en mode strict !

>>> unicode("é", "ASCII", "strict")
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 0: ordinal not in range(128)

Solution : convertir toutes les variables en utilisant le charset adéquat :

  • Si c'est une chaîne écrite directement dans le code, lui ajouter le préfixe u : remplacer « "é" » par « u"é" ». Il faudra peut-être rajouter le charset au début de votre fichier source, du genre :
# -*- coding: utf8 -*-
  • Si la chaîne vient d'une base de données : configurer la base pour qu'elle donne de l'unicode ou convertir manuellement en utilisant le charset utilisé par la base de données
  • Si la chaîne vient de raw_input() : utiliser le charset du terminal (voir plus bas dans cet article)
  • D'une manière générale : récupérer le bon charset et écrire « chaine = unicode(chaine, charset) »

Des fois ça marche !

Malheureusement pour nous, pauvres programmeurs, des fois les mélanges str/unicode fonctionnent ! C'est quand la chaîne d'octets ne contient que des codes dans l'interface [0; 127] : charset ASCII. Exemple :

>>> print u"salut %s !" % "victor"
salut victor !

Ce comportement laisse penser que ça marche, or ça ne fonctionne pas toujours :

>>> print u"salut %s !" % "hervé"
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 4: ordinal not in range(128)

Solution : comme toujours, s'assurer qu'on ne manipule que de l'Unicode :

(prenom est par exemple saisi au clavier par l'utilisateur)
>>> prenom = unicode(prenom, "utf8")
>>> print u"salut %s !" % prenom
salut hervé !

Attention à bien saisir le bon charset sous peine d'avoir un problème au moment de la conversion :

(...)
>>> prenom = unicode(prenom, "utf8")
UnicodeDecodeError: 'utf8' codec can't decode byte 0xff in position 0: unexpected code byte
(...)

Exception

La classe BaseException n'a pas de méthode __unicode__(). Du coup, unicode(Exception(u"\xE9")) appelle __str__(). Or la méthode __str__() tente de faire u"\xE9".encode("ASCII", "strict"), ce qui échoue :-(

Idée pour contourner le problème :

  • Créer une classe UnicodeException qui contient un attribut unicode_message
  • Convertir le message ASCII pour le contructeur d'Exception

Implémentation :

class UnicodeException(Exception):
    def __init__(self, message):
        if isinstance(message, unicode):
            self.unicode_message = message
            message = message.encode('ASCII', 'replace')
        else:
            message = str(message)
            try:
                self.unicode_message = unicode(message, "utf8")
            except UnicodeEncodeError:
                self.unicode_message = unicode(message, "ISO-8859-1")
        Exception.__init__(self, message)

    def __unicode__(self):
        return self.unicode_message

Type str

Le type « str » ne devrait pas servir à contenir du texte. C'est un tableau d'octet et sûrement pas un tableau de caractères (contrairement au type « unicode »).

Encodage

Encodage "=E9" (MIME)

Pour décoder la chaîne "S=C3=A9bastien", on peut utiliser la regex du pauvre :

>>> import re; re.sub("=([A-F0-9]{2})", lambda regs: chr(int(regs.group(1), 16)), "S=C3=A9bastien")
'S\xc3\xa9bastien'

Mais le module mimify sert exactement à ça :-)

Encodage "%E9" (HTML)

Pour décoder la chaîne "S%E9bastien", on peut utiliser :

>>> import urllib; unicode(urllib.unquote("S%E9bastien"), "ISO-8859-1")
u'S\xe9bastien'

Base64

Pour décoder des données encodée en base64 (ex: 'VG90bw=='), le module base64 dispose des fonctions b64encode() et b64decode().

Voir aussi la RFC 3548, The Base16, Base32, and Base64 Data Encodings.

Autres encodages

Voir aussi les modules binascii, quopri (quoted printable), uu, etc.

Conversion en ASCII (supprimer les accents)

Voir mon script unicode2ascii.py.

Voir également le billet de Peter Bengtsson : Unicode strings to ASCII... nicely.

Base de données

  • MySQL
    • db = MySQLdb.connect(..., use_unicode="True", charset="utf8")
    • Une table MySQL a un jeu de caractères : « CREATE TABLE .... [DEFAULT] CHARACTER SET charset_name [COLLATE collation_name] » (depuis MySQL 4.1)
    • MySQL n'aime pas "utf-8", utiliser utf8
    • Lire le chapitre Chapitre 10. Jeux de caractères et Unicode de la documentation MySQL
  • PostgreSQL
  • LDAP (python-ldap)
    • LDAP parle UTF-8 depuis la version 3 (RFC 4511)
    • en février 2011, python-ldap ne supportait pas encore le type unicode de Python2 pour consever la compatibilité LDAP version 2 qui exige un encodage explicite

Texte encodé deux fois en UTF-8

Fonction pour convertir du texte encodé deux fois en UTF-8 :

def decodeUtf8Utf8(octets):
  return octets.decode("utf8").encode("latin1").decode("utf8")

Exemple d'utilisation :

>>> print decodeUtf8Utf8('\xc3\x83\xc2\xa9')
é

Si vous avez une chaîne unicode :

>>> print decodeUtf8Utf8(u'\xc3\x83\xc2\xa9'.encode("latin1"))
é

Python3

En pratique avec Python3

Jeu de caractères par défaut

  • Exemple d'utilisation : b"abc".decode() et "abc".encode()
  • sys.getdefaultencoding() == 'utf8'
  • Bien qu'il existe sys.setdefaultencoding(), on ne peut pas modifier le jeu de caractères par défaut (un jeu de caractères autre que "utf8" émet une erreur)

Noms de fichiers et variables d'environnement

  • Jeu de caractères sys.getdefaultencoding(), "surrogateescape" error handler
  • sys.getfilesystemencoding()
    • Windows : "mbcs"
    • Mac OS X : "utf-8"
    • Autre : nl_langinfo(CODESET), ou "utf8" si nl_langinfo() échoue ou n'existe pas
  • (sys.setfilesystemencoding() : fonction supprimée par le module site)

Pour les variables d'environnement, Python 3.2 a en plus os.environb et os.getenvb() pour récupérer les variables dans le type bytes (avant qu'elles soient décodées).

TextIOWrapper, stdin, stdout et stderr

os.device_encoding(fd) :

  • None is fd n'est pas un TTY
  • Windows : GetConsoleCP() si fd==0, GetConsoleOutputCP() si fd in (1, 2), None sinon
  • POSIX : nl_langinfo(CODESET) (sans modifier la locale)

Choix du jeu de caractères par io.TextIOWrapper() si l'encodage n'est pas spécifié :

  • os.device_encoding(buffer.fileno())
  • ou locale.getpreferredencoding()
  • ou "ascii"
  • Note : utilise errors="strict" si errors n'est pas spécifié

sys.stdin, sys.stdout, sys.stderr :

Arguments de la ligne de commande

L'algorithme ressemble à ça :

# argv est une liste de bytes
encoding = locale.getpreferredencoding()
sys.argv = [arg.decode(encoding, 'surrogateescape') for arg in argv]

Les arguments sont décodés selon le jeu de caractères de la locale, et les caractères ne pouvant être décodés sont stockés sous forme de surrogates.

char** argv est converti en wchar_t** par _Py_char2wchar() qui utilise mbstowcs() ou mbrtowc()+surrogates), puis en liste de chaînes unicode par PySys_SetArgv() qui utilise PyUnicode_FromWideChar().

Pour récupérer sys.argv sous forme d'octets, utilisez :

encoding = locale.getpreferredencoding()
argv_bytes = [arg.encode(encoding, "surrogateescape") for arg in sys.argv]

Fonctions du module locale

locale.getpreferredencoding() :

  • Windows : _locale._getdefaultlocale()[1]
  • POSIX avec CODESET : modifie la locale avec setlocale(LC_TYPE, "") (sauf si l'argument do_setlocale est défini à False) puis appelle nl_langinfo(CODESET). Sous Mac OS X, renvoie "utf-8" le résultat est None
  • POSIX sans CODESET : getdefaultlocale()[1], ou "ascii" si le résultat est None

Lecture du jeu de caractères avec locale._getdefaultlocale() :

  • _locale._getdefaultlocale() si la fonction existe
  • Sinon cherche la première variable d'environnement définie parmis LC_ALL, LC_CTYPE, LANG, LANGUAGE : utilise "C" si aucune n'est définie. Puis devine le jeu de caractères à partir de la locale :
    • Si la locale contient un point : ce qui est écrit après le point ("fr_FR.utf8" => UTF-8)
    • ISO-8859-15 si la locale se termine par "..."@euro"
    • None sinon

En pratique avec Python2

Jeu de caractères par défaut

  • Exemple d'utilisation : "abc".decode() et u"abc".encode()
  • sys.getdefaultencoding() == 'ascii' par défaut, mais c'est modifiable avec sys.setdefaultencoding() (bien que très déconseillé : nombreux effets de bord !)

Noms de fichiers et variables d'environnement

  • Jeu de caractères sys.getdefaultencoding() (mode strict)
  • sys.getfilesystemencoding()
    • Windows : "mbcs"
    • Mac OS X : "utf-8"
    • Autre : nl_langinfo(CODESET), ou "utf8" si nl_langinfo() échoue ou n'existe pas

io.TextIOWrapper

Choix du jeu de caractères par io.TextIOWrapper() si l'encodage n'est pas spécifié :

  • locale.getpreferredencoding()
  • ou "ascii"

Fonctions du module locale

locale.getpreferredencoding() :

  • Windows : _locale._getdefaultlocale()[1]
  • POSIX avec CODESET : modifie la locale avec setlocale(LC_TYPE, "") (sauf si l'argument do_setlocale est défini à False) puis appelle nl_langinfo(CODESET)
  • POSIX sans CODESET : getdefaultlocale()[1]

En pratique avec Python3 (code source)

a :

  • PyUnicode_GetDefaultEncoding(), PyUnicode_SetDefaultEncoding
    • En Python : sys.getdefaultencoding()
    • PyUnicode_GetDefaultEncoding() est utilisé quand encoding==NULL, exemple Python : b"abc".decode()
    • Python3 : valeur utf8, non modifiable
  • sys.getfilesystemencoding()
    • Python/pythonrun.c : Py_InitializeEx() initialise Py_FileSystemDefaultEncoding avec nl_langinfo(CODESET)
    • Python/bltinmodule.c : Py_FileSystemDefaultEncoding
    • Défaut : "mbcs" sous Windows", "utf8" sous Mac OS X, None sinon

b :

  • os.environ
    • Modules/posixmodule.c : convertenviron()
    • Windows : PyUnicode_FromWideChar()
    • POSIX : PyUnicode_Decode(..., Py_FileSystemDefaultEncoding, "surrogateescape")

c :

  • locale.getpreferredencoding()
    • Windows : _locale._getdefaultlocale()[1]
    • POSIX avec CODESET : setlocale(LC_TYPE, ""); nl_langinfo(CODESET); setlocale(LC_TYPE, oldloc) ou "utf8"
    • POSIX sans CODESET : getdefaultlocale()[1] ou "ascii", parse les variables d'environnement
  • os.device_encoding(buffer.fileno())
    • Windows : GetConsoleCP() si fd==0, GetConsoleOutputCP() si fd in (1, 2), None sinon
    • POSIX : nl_langinfo(CODESET)
  • io.TextIOWrapper() si encoding==None :
    • os.device_encoding(buffer.fileno())
    • ou locale.getpreferredencoding()
    • ou "ascii"

d :

  • sys.stdin, sys.stdout, sys.stderr
    • sys.stdin.encoding, sys.stdout.encoding, sys.stderr.encoding
    • Python/pythonrun.c : initstdio()
    • Variable d'environement PYTHONIOENCODING : PYTHONIOENCODING=utf8 ou PYTHONIOENCODING=utf8:backslashreplace
    • Appelle io.TextIOWrapper(..., encoding, errors, ...)

Python 3.2 sous Linux :

>>> locale.getpreferredencoding()
'UTF-8'
>>> sys.getdefaultencoding()
'utf-8'
>>> sys.getfilesystemencoding()
'utf-8'
>>> sys.stdout.encoding
'UTF-8'

Python 3.2 sous Linux avec LANG= :

>>> locale.getpreferredencoding()
'ANSI_X3.4-1968'
>>> sys.getdefaultencoding()
'utf-8'
>>> sys.getfilesystemencoding()
'ascii'
>>> sys.stdout.encoding
'ANSI_X3.4-1968'

wchar_t

  • Debian Sid sur x86 (32 bits): sizeof(wchar_t) == 4
  • Sous Windows, sizeof(wchar_t) == 2 : utilise UTF-16

Voir aussi

Lire aussi

Article connexes