lexer

    0зной

    1ответ

    Чтобы локализовать строки, используемые в моем javascript, я хочу сканировать все мои js-файлы для таких строк. Я использую t() функцию для запроса строки перевода следующим образом: t("Hello world");

    4зной

    3ответ

    У меня вопрос о минимизации DFA. Поэтому я использовал очень хорошо известные методы для преобразования регулярного выражения в NFA, а затем построил из него DFA, используя алгоритм goto/clos. Теперь

    1зной

    2ответ

    Это оптимизированная версия токенизатора, которая была впервые написана, и работает довольно хорошо. Вторичный токенизатор может анализировать выходные данные этой функции для создания классифицирован

    13зной

    2ответ

    Я экспериментирую с lexer, и я обнаружил, что переход из цикла while в оператор if и цикл do-while в одной части программы привел к ~ 20% быстрее кода, что казалось сумасшедшим. Я выделил разницу в ко

    2зной

    2ответ

    Вот что я пытаюсь сделать AST этого: {{ name }} {{ name | option }} {{ name | option1 | option2 }} {{ name | key=value }} {{ name | option1 | key=value }} {{ name | option1 | {{ another }} | opti

    4зной

    1ответ

    У меня есть следующая грамматика: rule: 'aaa' | 'a' 'a'; Он может успешно разбирать строку «ааа», но он не может разобрать «аа» со следующей ошибкой: line 1:2 mismatched character '<EOF>' expecting