У меня есть HTML, который содержит файл Javascript. Этот скрипт содержит специальный символ, ASCII 152. Когда я пытаюсь отобразить charCodeAt, я получаю разные результаты, но никогда не правильный. Не могли бы вы посоветоваться? БлагодаряСимволы с ASCII> 128 некорректно читаются в Javascript
test.html
<script type="text/javascript" charset=SEE BELOW src="test.js">
</script>
TEST.JS файл с ANSI кодировкой
function d(a)
{
a=(a+"").split("");
alert(a[1].charCodeAt(0));
};
d("i˜g"); // Note that ˜ is 152 in ASCII
- test.html с й-определенным пользователем кодировким: предупреждение показывает 63384. С% 63232 работает, так как каждый char> 128 отображается как 63232 + char.
- test.html с UTF-8 кодировок: предупреждение показывает 65533. Все символы> 128 отображаются как 65533.
- test.html с Windows-1252 кодировок: предупреждение показывает 752. Я не могу найти связь между ASCII и что отображается.
TEST.JS файл с UTF-8 кодировкой
function d(a)
{
a=(a+"").split("");
alert(a[1].charCodeAt(0));
};
d("i[x98]g"); // Note that x98 is 152
- test.html с й-определенным пользователем кодировким: предупреждение показывает 65533. Всех символов> 128 отображаются как 65533.
- test.html с UTF-8 кодировкой: предупреждение показывает 65533. Все символы> 128 отображаются как 65533.
- test.html с Windows-1252 кодировкой: предупреждение показывает 65533. Все символы> 128 отображаются как 65533.
Там нет символов в диапазоне 127-255 для utf8 и ASCII заканчивается на 127 ... Также символ в позиции '1' в '' i [x98] g "' является '" ["' – Esailija
"~" не находится в позиции 152 в любой кодировке, о которой я знаю. – deceze
См. Www.ascii-code.com (ASCII extended) – Arturo