En travaillant avec Python 2.7, je me demande quel avantage réel il y a à utiliser le type à la unicode
place de str
, car les deux semblent être capables de contenir des chaînes Unicode. Existe-t-il une raison particulière en dehors de la possibilité de définir des codes Unicode dans des unicode
chaînes à l'aide du caractère d'échappement \
?:
Exécuter un module avec:
# -*- coding: utf-8 -*-
a = 'á'
ua = u'á'
print a, ua
Résultats dans: á, á
ÉDITER:
Plus de tests avec le shell Python:
>>> a = 'á'
>>> a
'\xc3\xa1'
>>> ua = u'á'
>>> ua
u'\xe1'
>>> ua.encode('utf8')
'\xc3\xa1'
>>> ua.encode('latin1')
'\xe1'
>>> ua
u'\xe1'
Ainsi, la unicode
chaîne semble être encodée en utilisant latin1
au lieu de utf-8
et la chaîne brute est encodée en utilisant utf-8
? Je suis encore plus confus maintenant! : S
unicode
, c'est juste une abstraction de caractère unicode;unicode
peut être converti enstr
avec un certain codage (par exempleutf-8
).Réponses:
unicode
est destiné à gérer du texte . Le texte est une séquence de points de code qui peut être plus grand qu'un seul octet . Le texte peut être encodé dans un encodage spécifique pour représenter le texte sous forme d'octets bruts (par exempleutf-8
,latin-1
...).Notez que ce
unicode
n'est pas encodé ! La représentation interne utilisée par python est un détail d'implémentation, et vous ne devriez pas vous en soucier tant qu'elle est capable de représenter les points de code que vous voulez.Au contraire
str
dans Python 2 est une simple séquence d' octets . Cela ne représente pas du texte!Vous pouvez penser
unicode
à une représentation générale d'un texte, qui peut être encodé de nombreuses manières différentes dans une séquence de données binaires représentée viastr
.Remarque: Dans Python 3, a
unicode
été renommé enstr
et il existe un nouveaubytes
type pour une séquence d'octets simple.Quelques différences que vous pouvez voir:
Notez que lors de l'utilisation,
str
vous disposez d'un contrôle de niveau inférieur sur les octets uniques d'une représentation de codage spécifique, tandis que lors de l'utilisation,unicode
vous ne pouvez contrôler qu'au niveau du point de code. Par exemple, vous pouvez faire:Ce qui avant était valide UTF-8, ne l'est plus. En utilisant une chaîne Unicode, vous ne pouvez pas fonctionner de telle sorte que la chaîne résultante ne soit pas un texte Unicode valide. Vous pouvez supprimer un point de code, remplacer un point de code par un autre point de code, etc. mais vous ne pouvez pas jouer avec la représentation interne.
la source
unicode
objets, je suppose que nous devons d'abord les utiliser explicitementencode()
au format de codage approprié, car nous ne savons pas lequel est utilisé en interne pour représenter launicode
valeur.unicode
objet.unicode
n'est pas encodée est tout simplement fausse. UTF-16 / UCS-2 et UTF-32 / UCS-4 sont également des encodages ... et à l'avenir, d'autres seront probablement créés. Le fait est que le fait que vous ne devriez pas vous soucier des détails de l'implémentation (et, en fait, vous ne devriez pas!), Ne signifie toujours pas que ceunicode
n'est pas encodé. C'est bien sûr. Que ce soit possible.decode()
, c'est une toute autre histoire.unicode
représentation interne de l' objet peut être ce qu'elle veut, y compris une représentation non standard. En particulier dans python3 + n'utilise une représentation interne non standard qui change également en fonction des données contenues. En tant que tel, ce n'est pas un encodage standard . Unicode en tant que norme de texte définit uniquement les points de code qui sont une représentation abstraite du texte, il existe des tonnes de façons d'encoder unicode en mémoire, y compris le standard utf-X, etc. Python utilise sa propre méthode pour plus d'efficacité.unicode
unicode
objet de CPython , puisqu'il n'utilise ni UTF-16, ni UTF-32. Il utilise une représentation ad hoc, et si vous souhaitez encoder les données en octets réels, vous devez utiliserencode
. De plus: le langage ne précise pas commentunicode
est implémenté, donc différentes versions ou implémentations de python peuvent (et ont ) une représentation interne différente.Unicode et les encodages sont des choses complètement différentes et indépendantes.
Unicode
Attribue un identifiant numérique à chaque caractère:
Ainsi, Unicode attribue le numéro 0x41 à A, 0xE1 à á et 0x414 à Д.
Même la petite flèche → que j'ai utilisée a son numéro Unicode, c'est 0x2192. Et même les emojis ont leurs numéros Unicode, 😂 est 0x1F602.
Vous pouvez rechercher les numéros Unicode de tous les caractères de ce tableau . En particulier, vous pouvez trouver les trois premiers caractères ci-dessus ici , la flèche ici et l'emoji ici .
Ces numéros attribués à tous les caractères par Unicode sont appelés points de code .
Le but de tout cela est de fournir un moyen de se référer sans ambiguïté à chaque caractère. Par exemple, si je parle de 😂, au lieu de dire "vous savez, cet emoji riant avec des larmes" , je peux simplement dire, point de code Unicode 0x1F602 . Plus facile, non?
Notez que les points de code Unicode sont généralement formatés avec un début
U+
, puis la valeur numérique hexadécimale complétée à au moins 4 chiffres. Ainsi, les exemples ci-dessus seraient U + 0041, U + 00E1, U + 0414, U + 2192, U + 1F602.Les points de code Unicode vont de U + 0000 à U + 10FFFF. Soit 1 114 112 chiffres. 2048 de ces nombres sont utilisés pour les substituts , il en reste donc 1.112.064. Cela signifie qu'Unicode peut attribuer un identifiant unique (point de code) à 1 112 064 caractères distincts. Tous ces points de code ne sont pas encore affectés à un caractère, et Unicode est étendu en continu (par exemple, lorsque de nouveaux emojis sont introduits).
La chose importante à retenir est que tout ce que fait Unicode est d'attribuer un identifiant numérique, appelé point de code, à chaque caractère pour une référence simple et sans ambiguïté.
Encodages
Mappez les caractères sur les modèles de bits.
Ces modèles de bits sont utilisés pour représenter les caractères dans la mémoire de l'ordinateur ou sur le disque.
Il existe de nombreux encodages différents qui couvrent différents sous-ensembles de caractères. Dans le monde anglophone, les encodages les plus courants sont les suivants:
ASCII
Mappe 128 caractères (points de code U + 0000 à U + 007F) avec des modèles de bits de longueur 7.
Exemple:
Vous pouvez voir tous les mappages dans ce tableau .
ISO 8859-1 (alias Latin-1)
Mappe 191 caractères (points de code U + 0020 à U + 007E et U + 00A0 à U + 00FF) à des modèles de bits de longueur 8.
Exemple:
Vous pouvez voir tous les mappages dans ce tableau .
UTF-8
Cartes 1,112,064 caractères (tous les points de code Unicode existants) à des configurations de bits de longueur , soit 8, 16, 24 ou 32 bits (soit 1, 2, 3 ou 4 octets).
Exemple:
La façon dont UTF-8 encode les caractères en chaînes de bits est très bien décrite ici .
Unicode et encodages
En regardant les exemples ci-dessus, il devient clair à quel point Unicode est utile.
Par exemple, si je suis Latin-1 et que je veux expliquer mon encodage de á, je n'ai pas besoin de dire:
Mais je peux juste dire:
Et si je suis UTF-8 , je peux dire:
Et il est clair pour tout le monde de quel personnage nous parlons.
Maintenant à la confusion souvent apparue
Il est vrai que parfois le modèle binaire d'un encodage, si vous l'interprétez comme un nombre binaire, est le même que le point de code Unicode de ce caractère.
Par exemple:
Bien sûr, cela a été arrangé comme ceci à des fins de commodité. Mais vous devriez le considérer comme une pure coïncidence . Le modèle binaire utilisé pour représenter un caractère en mémoire n'est en aucun cas lié au point de code Unicode de ce caractère.
Personne ne dit même que vous devez interpréter une chaîne de bits comme 11100001 comme un nombre binaire. Regardez-le simplement comme la séquence de bits que Latin-1 utilise pour coder le caractère á .
Retour à votre question
L'encodage utilisé par votre interpréteur Python est UTF-8 .
Voici ce qui se passe dans vos exemples:
Exemple 1
Ce qui suit encode le caractère á en UTF-8. Il en résulte la chaîne de bits 11000011 10100001, qui est enregistrée dans la variable
a
.Lorsque vous regardez la valeur de
a
, son contenu 11000011 10100001 est formaté en tant que numéro hexadécimal 0xC3 0xA1 et généré sous la forme'\xc3\xa1'
:Exemple 2
Ce qui suit enregistre le point de code Unicode de á, qui est U + 00E1, dans la variable
ua
(nous ne savons pas quel format de données Python utilise en interne pour représenter le point de code U + 00E1 en mémoire, et cela n'a pas d'importance pour nous):Lorsque vous regardez la valeur de
ua
, Python vous indique qu'il contient le point de code U + 00E1:Exemple 3
Ce qui suit encode le point de code Unicode U + 00E1 (représentant le caractère á) avec UTF-8, ce qui donne le modèle de bits 11000011 10100001. Encore une fois, pour la sortie, ce modèle de bits est représenté par le nombre hexadécimal 0xC3 0xA1:
Exemple 4
Ce qui suit encode le point de code Unicode U + 00E1 (représentant le caractère á) avec Latin-1, ce qui donne le modèle de bits 11100001. Pour la sortie, ce modèle de bits est représenté par le nombre hexadécimal 0xE1, qui, par coïncidence, est le même que l'initial point de code U + 00E1:
Il n'y a aucune relation entre l'objet Unicode
ua
et l'encodage Latin-1. Le fait que le point de code de á soit U + 00E1 et que le codage Latin-1 de á soit 0xE1 (si vous interprétez le modèle binaire du codage comme un nombre binaire) est une pure coïncidence.la source
Votre terminal est configuré sur UTF-8.
Le fait que l'imprimerie
a
est une coïncidence; vous écrivez des octets UTF-8 bruts sur le terminal.a
est une valeur de longueur deux , contenant deux octets, les valeurs hexadécimales C3 et A1, tandis queua
est une valeur unicode de longueur un , contenant un point de code U + 00E1.Cette différence de longueur est l'une des principales raisons d'utiliser les valeurs Unicode; vous ne pouvez pas facilement mesurer le nombre de caractères de texte dans une chaîne d'octets; le
len()
d'une chaîne d'octets vous indique combien d'octets ont été utilisés, pas combien de caractères ont été encodés.Vous pouvez voir la différence lorsque vous encodez la valeur Unicode dans différents encodages de sortie:
Notez que les 256 premiers points de code de la norme Unicode correspondent à la norme Latin 1, de sorte que le point de code U + 00E1 est codé en Latin 1 sous la forme d'un octet avec la valeur hexadécimale E1.
De plus, Python utilise des codes d'échappement dans les représentations de chaînes unicode et d'octets, et les points de code bas qui ne sont pas imprimables en ASCII sont également représentés à l'aide de
\x..
valeurs d'échappement. C'est pourquoi une chaîne Unicode avec un point de code entre 128 et 255 ressemble tout comme le 1 codage Latin. Si vous avez une chaîne Unicode avec des points de code au-delà de U + 00FF, une séquence d'échappement différente\u....
est utilisée à la place, avec une valeur hexadécimale à quatre chiffres.Il semble que vous ne compreniez pas encore complètement la différence entre Unicode et un encodage. Veuillez lire les articles suivants avant de continuer:
Le minimum absolu que tout développeur de logiciel doit absolument et positivement savoir sur l'Unicode et les jeux de caractères (sans excuses!) Par Joel Spolsky
Le HOWTO Python Unicode
Unicode pragmatique par Ned Batchelder
la source
\xe1
en latin 1.Lorsque vous définissez a comme unicode, les caractères a et á sont égaux. Sinon, á compte pour deux caractères. Essayez len (a) et len (au). En plus de cela, vous devrez peut-être disposer du codage lorsque vous travaillez avec d'autres environnements. Par exemple, si vous utilisez md5, vous obtenez des valeurs différentes pour a et ua
la source