Cette question n'est pas tellement liée aux bases de données mais plutôt à la gestion et aux règles Unicode.
Basé sur https://docs.microsoft.com/en-us/sql/t-sql/statements/windows-collation-name-transact-sql Latin1_General_100_CS_AS signifie: "Le classement utilise les règles de tri du dictionnaire général Latin1 et correspond à la page de code 1252 "avec le CS = sensible à la casse et AS = sensible à l'accent ajouté.
Le mappage entre la page de codes Windows 1252 et Unicode ( http://www.unicode.org/Public/MAPPINGS/VENDORS/MICSFT/WINDOWS/CP1252.TXT ) affiche les mêmes valeurs pour tous les caractères avec lesquels nous traitons (sauf e avec macron qui n'existe pas dans le mappage Microsoft, donc aucune idée de ce qu'il fait avec ce cas), nous pouvons donc nous concentrer sur les outils et la terminologie Unicode pour l'instant.
Tout d'abord, faites-nous savoir précisément à quoi nous avons affaire, pour toutes vos cordes:
0065 LATIN SMALL LETTER E
0041 LATIN CAPITAL LETTER A
00E9 LATIN SMALL LETTER E WITH ACUTE
0042 LATIN CAPITAL LETTER B
00EB LATIN SMALL LETTER E WITH DIAERESIS
0043 LATIN CAPITAL LETTER C
00E8 LATIN SMALL LETTER E WITH GRAVE
0044 LATIN CAPITAL LETTER D
00EA LATIN SMALL LETTER E WITH CIRCUMFLEX
0045 LATIN CAPITAL LETTER E
0113 LATIN SMALL LETTER E WITH MACRON
0046 LATIN CAPITAL LETTER F
L'algorithme de classement Unicode est décrit ici: https://www.unicode.org/reports/tr10/
Jetez un œil à la section 1.3 "Sensibilité contextuelle" qui explique que le tri ne peut pas dépendre d'un seul caractère après l'autre car certaines règles sont contextuelles.
Notez également ces points en 1.8:
Le classement n'est pas une propriété des chaînes. L'ordre de classement n'est pas conservé lors des opérations de concaténation ou de sous-chaîne, en général.
Par défaut, l'algorithme utilise trois niveaux entièrement personnalisables. Pour l'écriture latine, ces niveaux correspondent grosso modo à:
alphabetic ordering
diacritic ordering
case ordering.
Mais l'algorithme en lui-même est un peu dense. L'essentiel est le suivant: En bref, l'algorithme de classement Unicode prend une chaîne Unicode d'entrée et une table d'éléments de classement, contenant des données de mappage pour les caractères. Il produit une clé de tri, qui est un tableau d'entiers 16 bits non signés. Deux ou plusieurs clés de tri ainsi produites peuvent ensuite être comparées en binaire pour donner la comparaison correcte entre les chaînes pour lesquelles elles ont été générées.
Vous pouvez afficher les règles de tri latin spécifiques ici: http://developer.mimer.com/collations/charts/latin.htm
ou plus directement et spécifiquement pour MS SQL:
http://collation-charts.org/mssql/mssql. 0409.1252.Latin1_General_CS_AS.html
Pour le e
personnage, il montre:
e E é É è È ê Ê ë Ë
Cela explique vos résultats lors de la commande, col1
sauf que ē n'existe pas dans la page de code 1252, donc je n'ai absolument aucune idée de ce qu'il en fait.
Ou si nous faisons l'algorithme Unicode à la main, en utilisant la valeur de clés de DUCET à http://www.unicode.org/Public/UCA/latest/allkeys.txt :
étape 1: Formulaire de normalisation D, donc chaque cas devient:
e => U+0065
é => U+0065 U+0301
ë => U+0065 U+0308
è => U+0065 U+0300
ê => U+0065 U+0302
ē => U+0065 U+0304
étape 2, produire des tableaux de classement (recherche dans le fichier allkeys.txt
)
e => [.1D10.0020.0002]
é => [.1D10.0020.0002] [.0000.0024.0002]
ë => [.1D10.0020.0002] [.0000.002B.0002]
è => [.1D10.0020.0002] [.0000.0025.0002]
ê => [.1D10.0020.0002] [.0000.0027.0002]
ē => [.1D10.0020.0002] [.0000.0032.0002]
étape 3, Formulaire de tri des clés (pour chaque niveau, prenez chaque valeur dans chaque tableau de classement, puis mettez 0000 comme délimiteur et recommencez pour le niveau suivant)
e => 1D10 0000 0020 0000 0002
é => 1D10 0000 0020 0024 0000 0002 0002
ë => 1D10 0000 0020 002B 0000 0002 0002
è => 1D10 0000 0020 0025 0000 0002 0002
ê => 1D10 0000 0020 0027 0000 0002 0002
ē => 1D10 0000 0020 0032 0000 0002 0002
étape 4, Comparer les clés de tri (simple comparaison binaire de chaque valeur une par une): La quatrième valeur suffit pour toutes les trier, donc l'ordre final devient:
e
é
è
ê
ë
ē
De même pour commander sur col2
:
étape 1: NFD
eA => U+0065 U+0041
éB => U+0065 U+0301 U+0042
ëC => U+0065 U+0308 U+0043
èD => U+0065 U+0300 U+0044
êE => U+0065 U+0302 U+0045
ēF => U+0065 U+0304 U+0046
étape 2: tableaux de classement
eA => [.1D10.0020.0002] [.1CAD.0020.0008]
éB => [.1D10.0020.0002] [.0000.0024.0002] [.1CC6.0020.0008]
ëC => [.1D10.0020.0002] [.0000.002B.0002] [.1CE0.0020.0008]
èD => [.1D10.0020.0002] [.0000.0025.0002] [.1CF5.0020.0008]
êE => [.1D10.0020.0002] [.0000.0027.0002] [.1D10.0020.0008]
ēF => [.1D10.0020.0002] [.0000.0032.0002] [.1D4B.0020.0008]
étape 3: clés de tri du formulaire
eA => 1D10 1CAD 0000 0020 0020 0000 0002 0008
éB => 1D10 1CC6 0000 0020 0024 0020 0000 0002 0002 0008
ëC => 1D10 1CE0 0000 0020 002B 0020 0000 0002 0002 0008
èD => 1D10 1CF5 0000 0020 0025 0020 0000 0002 0002 0008
êE => 1D10 1D10 0000 0020 0027 0020 0000 0002 0002 0008
ēF => 1D10 1D4B 0000 0020 0032 0020 0000 0002 0002 0008
étape 4: Comparer les clés de tri: La deuxième valeur suffit pour toutes les trier, et elle est en fait déjà en ordre croissant, donc l'ordre final est en effet:
eA
éB
ëC
èD
êE
ēF
Mise à jour : ajout du troisième cas de Solomon Rutzky, ce qui est plus délicat en raison de l'espace qui permet de nouvelles règles (j'ai choisi le "cas non ignorable"):
étape 1, NFD:
è 1 => U+0065 U+0300 U+0020 U+0031
ê 5 => U+0065 U+0302 U+0020 U+0035
e 2 => U+0065 U+0020 U+0032
é 4 => U+0065 U+0301 U+0020 U+0034
ē 3 => U+0065 U+0304 U+0020 U+0033
ë 6 => U+0065 U+0308 U+0020 U+0036
étape 2, produire des tableaux de classement:
è 1 => [.1D10.0020.0002] [.0000.0025.0002] [*0209.0020.0002] [.1CA4.0020.0002]
ê 5 => [.1D10.0020.0002] [.0000.0027.0002] [*0209.0020.0002] [.1CA8.0020.0002]
e 2 => [.1D10.0020.0002] [*0209.0020.0002] [.1CA5.0020.0002]
é 4 => [.1D10.0020.0002] [.0000.0024.0002] [*0209.0020.0002] [.1CA7.0020.0002]
ē 3 => [.1D10.0020.0002] [.0000.0032.0002] [*0209.0020.0002] [.1CA6.0020.0002]
ë 6 => [.1D10.0020.0002] [.0000.002B.0002] [*0209.0020.0002] [.1CA9.0020.0002]
étape 3, clés de tri du formulaire:
è 1 => 1D10 0209 1CA4 0000 0020 0025 0020 0020 0000 0002 0002 0002 0002
ê 5 => 1D10 0209 1CA8 0000 0020 0027 0020 0020 0000 0002 0002 0002 0002
e 2 => 1D10 0209 1CA5 0000 0020 0020 0020 0000 0002 0002 0002
é 4 => 1D10 0209 1CA7 0000 0020 0024 0020 0020 0000 0002 0002 0002 0002
ē 3 => 1D10 0209 1CA6 0000 0020 0032 0020 0020 0000 0002 0002 0002 0002
ë 6 => 1D10 0209 1CA9 0000 0020 002B 0020 0020 0000 0002 0002 0002 0002
étape 4, comparer les clés de tri:
Fondamentalement, la troisième valeur détermine l'ordre, et elle n'est en fait basée que sur le dernier chiffre, donc l'ordre doit être:
è 1
e 2
ē 3
é 4
ê 5
ë 6
Deuxième mise à jour basée sur le commentaire de Solomon Rutzky sur les versions Unicode.
J'ai utilisé les allkeys.txt
données sur la dernière version d'Unicode à ce moment, c'est-à-dire la version 10.0
Si nous devons plutôt prendre en compte Unicode 5.1 , ce serait:
http://www.unicode.org/Public/UCA/5.1.0/allkeys.txt
Je viens de vérifier, pour tous les caractères ci-dessus, les tableaux de classement sont les suivants à la place:
e => [.119D.0020.0002.0065]
é => [.119D.0020.0002.0065] [.0000.0032.0002.0301]
ë => [.119D.0020.0002.0065] [.0000.0047.0002.0308]
è => [.119D.0020.0002.0065] [.0000.0035.0002.0300]
ê => [.119D.0020.0002.0065] [.0000.003C.0002.0302]
ē => [.119D.0020.0002.0065] [.0000.005B.0002.0304]
et:
eA => [.119D.0020.0002.0065] [.1141.0020.0008.0041]
éB => [.119D.0020.0002.0065] [.0000.0032.0002.0301] [.1157.0020.0008.0042]
ëC => [.119D.0020.0002.0065] [.0000.0047.0002.0308] [.116F.0020.0008.0043]
èD => [.119D.0020.0002.0065] [.0000.0035.0002.0300] [.1182.0020.0008.0044]
êE => [.119D.0020.0002.0065] [.0000.003C.0002.0302] [.119D.0020.0008.0045]
ēF => [.119D.0020.0002.0065] [.0000.005B.0002.0304] [.11D5.0020.0008.0046]
et:
è 1 => [.119D.0020.0002.0065] [.0000.0035.0002.0300] [*0209.0020.0002.0020] [.1138.0020.0002.0031]
ê 5 => [.119D.0020.0002.0065] [.0000.003C.0002.0302] [*0209.0020.0002.0020] [.113C.0020.0002.0035]
e 2 => [.119D.0020.0002.0065] [*0209.0020.0002.0020] [.1139.0020.0002.0032]
é 4 => [.119D.0020.0002.0065] [.0000.0032.0002.0301] [*0209.0020.0002.0020] [.113B.0020.0002.0034]
ē 3 => [.119D.0020.0002.0065] [.0000.005B.0002.0304] [*0209.0020.0002.0020] [.113A.0020.0002.0033]
ë 6 => [.119D.0020.0002.0065] [.0000.0047.0002.0308] [*0209.0020.0002.0020] [.113D.0020.0002.0036]
qui calcule ensuite les clés de tri suivantes:
e => 119D 0000 0020 0000 0002 0000 0065
é => 119D 0000 0020 0032 0000 0002 0002 0000 0065 0301
ë => 119D 0000 0020 0047 0000 0002 0002 0000 0065 0308
è => 119D 0000 0020 0035 0000 0002 0002 0000 0065 0300
ê => 119D 0000 0020 003C 0000 0002 0002 0000 0065 0302
ē => 119D 0000 0020 005B 0000 0002 0002 0000 0065 0304
et:
eA => 119D 1141 0000 0020 0020 0000 0002 0008 0000 0065 0041
éB => 119D 1157 0000 0020 0032 0020 0000 0002 0002 0008 0000 0065 0301 0042
ëC => 119D 116F 0000 0020 0047 0020 0000 0002 0002 0008 0000 0065 0308 0043
èD => 119D 1182 0000 0020 0035 0020 0000 0002 0002 0008 0000 0065 0300 0044
êE => 119D 119D 0000 0020 003C 0020 0000 0002 0002 0008 0000 0065 0302 0045
ēF => 119D 11D5 0000 0020 005B 0020 0000 0002 0002 0008 0000 0065 0304 0046
et:
è 1 => 119D 0209 1138 0000 0020 0035 0020 0020 0000 0002 0002 0002 0002 0000 0065 0300 0020 0031
ê 5 => 119D 0209 113C 0000 0020 003C 0020 0020 0000 0002 0002 0002 0002 0000 0065 0302 0020 0035
e 2 => 119D 0209 1139 0000 0020 0020 0020 0000 0002 0002 0002 0000 0065 0020 0032
é 4 => 119D 0209 113B 0000 0020 0032 0020 0020 0000 0002 0002 0002 0002 0000 0065 0301 0020 0034
ē 3 => 119D 0209 113A 0000 0020 005B 0020 0020 0000 0002 0002 0002 0002 0000 0065 0304 0020 0033
ë 6 => 119D 0209 113D 0000 0020 0047 0020 0020 0000 0002 0002 0002 0002 0000 0065 0308 0020 0036
ce qui donne à nouveau ces trois résultats triés:
e
é
è
ê
ë
ē
et
eA
éB
ëC
èD
êE
ēF
et
è 1
e 2
ē 3
é 4
ê 5
ë 6
VARCHAR
(c'est-à-dire non Unicode), qui ne sont pas utilisées ici. C'est pourquoi leē
personnage fonctionne très bien. 2) L'information "collation-charts" est un peu dépassée. C'est pour une version précédente de ce classement et ils n'ont rien publié depuis 2009. 3) La version Unicode ici n'est certainement pas la dernière (version 10). La_100_
série Collations est venue avec SQL 2008, donc ce serait Unicode 5.0 ou 5.1: unicode.org/standard/versions/#TUS_Earlier_VersionsallKeys.txt
changements entre la version Unicode, en plus de l'ajout de nouveaux personnages, donc ce qui précède devrait rester vrai, mais bien sûr, il pourrait être refait avec les anciennes données précédentes, je manque juste d'énergie pour y mettre encore quelques heures. Quant au CP1252, il venait juste de la définition donnée par MS-SQL (je n'utilise pas moi-même ce produit).Le comportement que vous voyez ici est dû, dans un sens général, au fait que l' algorithme de classement Unicode (UCA) permet un tri complexe à plusieurs niveaux. Plus précisement:
Le tri n'est pas une comparaison:
Déterminer si deux chaînes sont identiques ou différentes est assez simple (étant donné un lieu / une langue particuliers et un ensemble de sensibilités). Mais déterminer l'ordre de 2 chaînes ou plus peut être très complexe.
Le tri se fait en une série d'étapes, chaque étape étant appliquée à la chaîne entière, pas caractère par caractère:
Lorsque vous triez par
col1
(caractère unique), il détermine d'abord que tous les caractères ont le même poids car ils sont tous " e ". Ensuite, il applique les poids accent / diacritique. Il n'y a pas de différence de boîtier, donc la troisième étape ne changera rien. Ainsi, les seules différences se trouvent à l'étape 2, c'est pourquoi il existe un ordre préféré pour ces lignes en fonctioncol1
.Lorsque vous triez par
col2
(deux caractères), il détermine d'abord que chaque ligne a un poids différent puisque les deux caractères sont utilisés pour déterminer le poids du tri (par exemple " ea ", " eb ", etc.). Ensuite, il applique les poids accent / diacritique. Il n'y a pas de différence de boîtier, donc la troisième étape ne changera rien. Il y a donc des différences dans les étapes 1 et 2 cette fois. Mais comme les différences de l'étape 1 ont déjà été appliquées à chaque chaîne avant que les poids de l'étape 2 soient pris en compte, les poids de l'étape 2 n'ont aucun effet sur l'ordre; ils ne s'appliqueraient que si les poids de l'étape 1 pour deux lignes ou plus étaient identiques.Nous espérons que l'adaptation suivante de l'exemple de code de la question illustre le comportement de tri décrit ci-dessus. J'ai ajouté quelques lignes supplémentaires et une colonne supplémentaire pour aider à montrer l'impact du classement en respectant la casse (puisque les données d'échantillon d'origine sont toutes en minuscules):
INSTALLER
TEST 1
Retour:
Ce que nous pouvons voir dans les résultats ci-dessus:
TEST 2
Retour:
Ce que nous pouvons voir dans les résultats ci-dessus:
TEST 3
Retour:
Ce que nous pouvons voir dans les résultats ci-dessus:
col2
dans la question est à nouveau due à la "comparaison à plusieurs niveaux" et non à la "sensibilité contextuelle".Notes complémentaires:
En ce qui concerne l'obtention des règles exactes, ce n'est pas aussi facile qu'il devrait l'être. Le problème pour obtenir des explications concrètes de ces règles est que les règles de tri Unicode, bien que clairement documentées, sont une recommandation. Il appartient aux fournisseurs, tels que Microsoft, de mettre en œuvre ces recommandations. Microsoft n'a pas implémenté les recommandations exactement comme indiqué dans la documentation Unicode, il y a donc une déconnexion (similaire à la façon dont ni les spécifications HTML ou CSS ne sont implémentées aussi complètement, ni même de la même manière, entre les fournisseurs). Ensuite, il existe différentes versions des classements Windows (vous utilisez une version
100
fournie avec SQL Server 2008) et qui est liée à une version Unicode beaucoup plus ancienne que la version actuelle d'Unicode ou de la démonstration ICU Collationutilise. Par exemple, la section Nouveautés de SQL Server 2008 Collations de la documentation "Collation and Unicode Support" pour SQL Server 2008 présente 2 points très intéressants sur les nouveautés de la_100_
série Collations:Unicode 5.0 a été publié en juillet 2006 (enfin, la base de données de personnages a été publiée à ce moment-là, et la spécification complète a suivi fin 2006). La version actuelle est 10.0 qui a été publiée en juin 2017. Et compte tenu du modèle de publication des 4 dernières années, il est probable que la version 11.0 sera disponible mi-2018.
Ces poids étaient plus que probablement définis dans la norme Unicode, mais pas dans sa mise en œuvre.
Pourtant, la documentation UCA liée ci-dessus est un bon point de départ.
Les clés de tri utilisées par Windows / .NET / SQL Server ne sont pas exactement les mêmes que celles affichées dans la norme Unicode (voir la réponse de @ Patrick) ou implémentées dans l' ICU . Pour voir ce que Windows / .NET / SQL Server utilise, vous pouvez essayer la méthode CompareInfo.GetSortKey . J'ai créé un UDF SQLCLR pour transmettre ces valeurs et obtenir la clé de tri. Veuillez noter que j'utilise SQL Server 2017 sur Windows 10 avec .NET Framework 4.5 - 4.6.1 installé, donc .NET devrait utiliser Unicode 6.0.0. De plus, Level4 n'est pas utilisé pour ces chaînes.
En regardant ces clés de tri pour le test 1 et en réalisant que les niveaux sont triés comme plusieurs colonnes dans une
ORDER BY
clause (L3 est trié selon les mêmes valeurs de L2, qui est trié selon les mêmes valeurs de L1), devrait illustrer que la raison du comportement noté dans la question est en fait la capacité de tri à plusieurs niveaux d'Unicode. Également:En regardant certaines des clés de tri pour le test 2, nous pouvons voir que les caractères de base sont d'abord triés (L1), puis les accents sont triés (L2), puis le boîtier est trié (L3).
Comme le type de données est
NVARCHAR
, nous ne nous intéressons qu'aux points de code Unicode et aux algorithmes de tri, d'où l'utilisation de laUNICODE()
fonction dans TEST 1. Bien que les pages de code soient spécifiées par la plupart des classements, elles ne concernent que lesVARCHAR
données. Signification, alors que la page de codes 1252 est spécifiée par laLatin1_General*
série de classements, cela peut être ignoré ici.Les pondérations décrites dans la table d'éléments de classement Unicode par défaut (DUCET) ( version 5.0.0 qui devrait correspondre aux classements de la
_100_
série) conviennent pour l'anglais américain, mais pas pour les autres paramètres régionaux / langues. D'autres langues doivent commencer par le DUCET, puis appliquer des règles de substitution spécifiques aux paramètres régionaux, telles que définies par le projet Common Locale Data Repository (CLDR). D'après ce que je peux dire, les versions 1.4 / 1.4.1 ont été publiées en 2006. Pour obtenir ces remplacements, téléchargez le fichier "core" CLDR 1.4 via http://unicode.org/Public/cldr/1.4.0/core.zip , puis, dans ce fichier zip, accédez au dossier de classement et recherchez le fichier XML correspondant aux paramètres régionaux utilisés. Ces fichiers contiennent uniquement les remplacements et ne sont pas des ensembles complets de règles de classement.la source