Détecter proprement l'UTF-8
Je me suis longtemps demandé s’il était possible (et si c’est le cas, comment) de distinguer un texte UTF-8 (sans le BOM, ça serait trop facile sinon) d’un autre texte ISO-8859.
Mon ami W3C m’a répondu et m’a donné le script perl ci-dessous :
$field =~
m/\A(
[\x09\x0A\x0D\x20-\x7E] # ASCII
| [\xC2-\xDF][\x80-\xBF] # non-overlong 2-byte
| \xE0[\xA0-\xBF][\x80-\xBF] # excluding overlongs
| [\xE1-\xEC\xEE\xEF][\x80-\xBF]{2} # straight 3-byte
| \xED[\x80-\x9F][\x80-\xBF] # excluding surrogates
| \xF0[\x90-\xBF][\x80-\xBF]{2} # planes 1-3
| [\xF1-\xF3][\x80-\xBF]{3} # planes 4-15
| \xF4[\x80-\x8F][\x80-\xBF]{2} # plane 16
)*\z/x;
Si l’expression régulière du dessus trouve une occurrence dans le texte à tester, alors bingo c’est de l’utf !
Dit autrement, la présence de certains octets, qui permettent d’accéder aux caractères pure-UTF-8, trahit la présence d’un text non-ASCII.