Дорогие коллеги, участники первого в России соревнования по автоматическому исправлению опечаток #SpellRuEval !
Так как накопилось достаточно большое количество вопросов о том, как именно мы будем сверять полученные результаты и какие метрики будем использовать, мы решили разослать участникам наш скрипт для проверки, чтобы каждый имел возможность предварительно увидеть принципы его работы и запустить на собственном материале.
source_sents.txt и corrected_sents.txt — обучающая выборка, answer_file — файл с ответами вашей системы, evaluate.py — скрипт на 3-ем питоне.
Если после у Вас останутся вопросы по критериям оценивания, просьба написать нам.
С уважением,
Алексей Сорокин и Татьяна Шаврина
alexey.sorokin@list.ru
rybolos@gmail.com