2.9 将Unicode文本标准化

问题

你正在处理Unicode字符串,需要确保所有字符串在底层有相同的表示。

解决方案

在Unicode中,某些字符能够用多个合法的编码表示。为了说明,考虑下面的这个例子:

  1. >>> s1 = 'Spicy Jalape\u00f1o'
  2. >>> s2 = 'Spicy Jalapen\u0303o'
  3. >>> s1
  4. 'Spicy Jalapeño'
  5. >>> s2
  6. 'Spicy Jalapeño'
  7. >>> s1 == s2
  8. False
  9. >>> len(s1)
  10. 14
  11. >>> len(s2)
  12. 15
  13. >>>

这里的文本”Spicy Jalapeño”使用了两种形式来表示。第一种使用整体字符”ñ”(U+00F1),第二种使用拉丁字母”n”后面跟一个”~”的组合字符(U+0303)。

在需要比较字符串的程序中使用字符的多种表示会产生问题。为了修正这个问题,你可以使用unicodedata模块先将文本标准化:

  1. >>> import unicodedata
  2. >>> t1 = unicodedata.normalize('NFC', s1)
  3. >>> t2 = unicodedata.normalize('NFC', s2)
  4. >>> t1 == t2
  5. True
  6. >>> print(ascii(t1))
  7. 'Spicy Jalape\xf1o'
  8. >>> t3 = unicodedata.normalize('NFD', s1)
  9. >>> t4 = unicodedata.normalize('NFD', s2)
  10. >>> t3 == t4
  11. True
  12. >>> print(ascii(t3))
  13. 'Spicy Jalapen\u0303o'
  14. >>>

normalize() 第一个参数指定字符串标准化的方式。NFC表示字符应该是整体组成(比如可能的话就使用单一编码),而NFD表示字符应该分解为多个组合字符表示。

Python同样支持扩展的标准化形式NFKC和NFKD,它们在处理某些字符的时候增加了额外的兼容特性。比如:

  1. >>> s = '\ufb01' # A single character
  2. >>> s
  3. 'fi'
  4. >>> unicodedata.normalize('NFD', s)
  5. 'fi'
  6. # Notice how the combined letters are broken apart here
  7. >>> unicodedata.normalize('NFKD', s)
  8. 'fi'
  9. >>> unicodedata.normalize('NFKC', s)
  10. 'fi'
  11. >>>

讨论

标准化对于任何需要以一致的方式处理Unicode文本的程序都是非常重要的。当处理来自用户输入的字符串而你很难去控制编码的时候尤其如此。

在清理和过滤文本的时候字符的标准化也是很重要的。比如,假设你想清除掉一些文本上面的变音符的时候(可能是为了搜索和匹配):

  1. >>> t1 = unicodedata.normalize('NFD', s1)
  2. >>> ''.join(c for c in t1 if not unicodedata.combining(c))
  3. 'Spicy Jalapeno'
  4. >>>

最后一个例子展示了 unicodedata 模块的另一个重要方面,也就是测试字符类的工具函数。combining() 函数可以测试一个字符是否为和音字符。在这个模块中还有其他函数用于查找字符类别,测试是否为数字字符等等。

Unicode显然是一个很大的主题。如果想更深入的了解关于标准化方面的信息,请看考 Unicode官网中关于这部分的说明Ned Batchelder在 他的网站上对Python的Unicode处理问题也有一个很好的介绍。

原文:

http://python3-cookbook.readthedocs.io/zh_CN/latest/c02/p09_normalize_unicode_text_to_regexp.html