查找文本文件的编码

时间:2012-10-12 19:47:44

标签: linux file bash text encoding

我有一堆带有不同编码的文本文件。但我想把所有的转换成utf-8。因为大约有1000个文件,所以我不能手动完成。我知道llinux中有一些命令可以将文件的编码从一种编码改为另一种编码。但我的问题是如何自动检测文件的当前编码?显然,我正在寻找一个命令(比如FindEncoding($ File))来做到这一点:

foreach file
do
$encoding=FindEncoding($File);
uconv -f $encoding -t utf-8 $file;
done

1 个答案:

答案 0 :(得分:5)

我通常会这样做:

for f in *.txt; do
    encoding=$(file -i "$f" | sed "s/.*charset=\(.*\)$/\1/")
    recode $encoding..utf-8 "$f"
done

请注意,重新编码将覆盖文件以更改字符编码。 如果无法通过扩展名识别文本文件,则可以使用file -bi | cut -d ';' -f 1确定其各自的mime类型。

通过首先检查UFT-8来避免不必要的重新编码也是一个好主意:

if [ ! "$encoding" = "utf-8" ]; then
    #encode

经过此处理后,可能仍会有一些us-ascii编码的文件。原因是ASCII是UTF-8的一个子集,它仍然在使用,除非引入了ASCII无法表达的任何字符。在这种情况下,编码切换到UTF-8。