Out-File
semble forcer la nomenclature lors de l'utilisation de l'UTF-8:
$MyFile = Get-Content $MyPath
$MyFile | Out-File -Encoding "UTF8" $MyPath
Comment puis-je écrire un fichier en UTF-8 sans nomenclature à l'aide de PowerShell?
encoding
powershell
utf-8
byte-order-mark
M. Dudley
la source
la source
Réponses:
Utiliser la
UTF8Encoding
classe de .NET et passer$False
au constructeur semble fonctionner:la source
[System.IO.File]::WriteAllLines($MyPath, $MyFile)
suffit. CetteWriteAllLines
surcharge écrit exactement UTF8 sans BOM.WriteAllLines
semble nécessiter$MyPath
d'être absolu.WriteAllLines
obtient le répertoire courant de[System.Environment]::CurrentDirectory
. Si vous ouvrez PowerShell, puis modifiez votre répertoire actuel (à l'aide decd
ouSet-Location
), il[System.Environment]::CurrentDirectory
ne sera pas modifié et le fichier se retrouvera dans le mauvais répertoire. Vous pouvez contourner ce problème en[System.Environment]::CurrentDirectory = (Get-Location).Path
.La bonne façon pour l'instant est d'utiliser une solution recommandée par @Roman Kuzmin dans les commentaires à @M. Réponse de Dudley :
(Je l'ai également raccourci un peu en supprimant la
System
clarification inutile de l' espace de noms - il sera remplacé automatiquement par défaut.)la source
[IO.File]::WriteAllLines(($filename | Resolve-Path), $content)
Je pensais que ce ne serait pas UTF, mais je viens de trouver une solution assez simple qui semble fonctionner ...
Pour moi, cela se traduit par un utf-8 sans fichier bom quel que soit le format source.
la source
-encoding utf8
pour mon exigence.-Encoding ASCII
évite le problème de nomenclature, mais vous n'obtenez évidemment que des caractères ASCII 7 bits . Étant donné que l'ASCII est un sous-ensemble de l'UTF-8, le fichier résultant est techniquement également un fichier UTF-8 valide, mais tous les caractères non ASCII de votre entrée seront convertis en?
caractères littéraux .-encoding utf8
toujours UTF-8 avec une nomenclature. :(Remarque: Cette réponse s'applique à Windows PowerShell ; en revanche, dans l' édition multiplateforme PowerShell Core (v6 +), UTF-8 sans BOM est le codage par défaut , sur toutes les applets de commande.
En d'autres termes: si vous utilisez PowerShell [Core] version 6 ou supérieure , vous obtenez des fichiers UTF-8 sans nomenclature par défaut (que vous pouvez également demander explicitement avec
-Encoding utf8
/-Encoding utf8NoBOM
, tandis que vous obtenez avec -BOM avec le codage-utf8BOM
).Pour compléter la réponse simple et pragmatique de M. Dudley (et la reformulation plus concise de ForNeVeR ):
Pour plus de commodité, voici une fonction avancée
Out-FileUtf8NoBom
, une alternative basée sur un pipeline qui imiteOut-File
, ce qui signifie:Out-File
dans un pipeline.Out-File
.Exemple:
Notez comment
(Get-Content $MyPath)
est inclus(...)
, ce qui garantit que le fichier entier est ouvert, lu en entier et fermé avant d'envoyer le résultat via le pipeline. Ceci est nécessaire pour pouvoir réécrire dans le même fichier (le mettre à jour sur place ).En général, cependant, cette technique n'est pas recommandée pour 2 raisons: (a) le fichier entier doit tenir en mémoire et (b) si la commande est interrompue, les données seront perdues.
Une note sur l' utilisation de la mémoire :
Code source de
Out-FileUtf8NoBom
(également disponible sous forme de Gist sous licence MIT ):la source
À partir de la version 6, powershell prend en charge l'
UTF8NoBOM
encodage à la fois pour le contenu défini et le fichier externe et l'utilise même comme encodage par défaut.Donc, dans l'exemple ci-dessus, cela devrait simplement être comme ceci:
la source
$PSVersionTable.PSVersion
Lorsque vous utilisez
Set-Content
au lieu deOut-File
, vous pouvez spécifier l'encodageByte
, qui peut être utilisé pour écrire un tableau d'octets dans un fichier. Ceci en combinaison avec un encodage UTF8 personnalisé qui n'émet pas la nomenclature donne le résultat souhaité:La différence avec l'utilisation
[IO.File]::WriteAllLines()
ou similaire est qu'elle devrait fonctionner correctement avec n'importe quel type d'élément et de chemin, pas seulement les chemins de fichier réels.la source
Ce script convertira, en UTF-8 sans nomenclature, tous les fichiers .txt dans DIRECTORY1 et les exportera vers DIRECTORY2
la source
Source Comment supprimer UTF8 Byte Order Mark (BOM) d'un fichier à l'aide de PowerShell
la source
Si vous souhaitez utiliser
[System.IO.File]::WriteAllLines()
, vous devez convertir le deuxième paramètre enString[]
(si le type de$MyFile
estObject[]
) et spécifier également un chemin absolu avec$ExecutionContext.SessionState.Path.GetUnresolvedProviderPathFromPSPath($MyPath)
, comme:Si vous souhaitez utiliser
[System.IO.File]::WriteAllText()
, vous devez parfois| Out-String |
diriger le deuxième paramètre pour ajouter explicitement des CRLF à la fin de chaque ligne (en particulier lorsque vous les utilisez avecConvertTo-Csv
):Ou vous pouvez utiliser
[Text.Encoding]::UTF8.GetBytes()
avecSet-Content -Encoding Byte
:voir: Comment écrire le résultat de ConvertTo-Csv dans un fichier en UTF-8 sans BOM
la source
$ExecutionContext.SessionState.Path.GetUnresolvedProviderPathFromPSPath($MyPath)
isConvert-Path $MyPath
; si vous voulez assurer un CRLF de fin, utilisez simplement[System.IO.File]::WriteAllLines()
même avec une seule chaîne d'entrée (pas besoin deOut-String
).Une technique que j'utilise consiste à rediriger la sortie vers un fichier ASCII à l'aide de l' applet de commande Out-File .
Par exemple, j'exécute souvent des scripts SQL qui créent un autre script SQL à exécuter dans Oracle. Avec une redirection simple (">"), la sortie sera en UTF-16 qui n'est pas reconnu par SQLPlus. Pour contourner cela:
Le script généré peut ensuite être exécuté via une autre session SQLPlus sans aucun souci Unicode:
la source
-Encoding ASCII
évite le problème de nomenclature, mais vous n'obtenez évidemment que la prise en charge des caractères ASCII 7 bits . Étant donné que l'ASCII est un sous-ensemble de l'UTF-8, le fichier résultant est techniquement également un fichier UTF-8 valide, mais tous les caractères non ASCII de votre entrée seront convertis en?
caractères littéraux .Changez plusieurs fichiers par extension en UTF-8 sans BOM:
la source
Pour une raison quelconque, les
WriteAllLines
appels produisaient toujours une nomenclature pour moi, avec l'UTF8Encoding
argument BOMless et sans lui. Mais ce qui suit a fonctionné pour moi:J'ai dû rendre le chemin du fichier absolu pour qu'il fonctionne. Sinon, il a écrit le fichier sur mon bureau. En outre, je suppose que cela ne fonctionne que si vous savez que votre nomenclature est de 3 octets. Je ne sais pas à quel point il est fiable de s'attendre à un format / longueur de nomenclature donné basé sur l'encodage.
En outre, comme écrit, cela ne fonctionne probablement que si votre fichier s'inscrit dans un tableau PowerShell, qui semble avoir une limite de longueur d'une valeur inférieure à celle
[int32]::MaxValue
de ma machine.la source
WriteAllLines
sans argument de codage n'écrit jamais une nomenclature elle - même , mais il est concevable que votre chaîne commence par le caractère BOM (U+FEFF
), qui lors de l'écriture a effectivement créé une nomenclature UTF-8; par exemple:$s = [char] 0xfeff + 'hi'; [io.file]::WriteAllText((Convert-Path t.txt), $s)
(omettez le[char] 0xfeff +
pour voir qu'aucune nomenclature n'est écrite).[Environment]::CurrentDirectory = $PWD.ProviderPath
, soit, comme alternative plus générique à votre"$(pwd)\..."
approche (mieux"$pwd\..."
"$($pwd.ProviderPath)\..."
(Join-Path $pwd.ProviderPath ...)
(Convert-Path BOMthetorpedoes.txt)
U+FEFF
abstrait .Pourrait utiliser ci-dessous pour obtenir UTF8 sans BOM
la source
ASCII
n'est pas UTF-8, mais ce n'est pas non plus la page de code ANSI actuelle - vous pensezDefault
;ASCII
est vraiment un codage ASCII 7 bits, avec des points de code> = 128 convertis en?
instances littérales .-Encoding ASCII
s'agit bien que d'ASCII 7 bits:'äb' | out-file ($f = [IO.Path]::GetTempFilename()) -encoding ASCII; '?b' -eq $(Get-Content $f; Remove-Item $f)
- leä
a été translittéré en a?
. En revanche,-Encoding Default
("ANSI") le conserverait correctement.Celui-ci fonctionne pour moi (utilisez "Default" au lieu de "UTF8"):
Le résultat est ASCII sans nomenclature.
la source
Default
encodage, il utilisera la page de codes ANSI actuelle du système, qui n'est pas UTF-8, comme je le demandais.