Министерство внутренних дел и коммуникаций Японии объявило о разработке улучшенной системы автоматического перевода видеоматериалов. В ней будет задействована не только языковая информация, но и данные о контексте ситуации.
Для того чтобы сделать автоматический переводчик более точным, японские разработчики хотят ввести дополнительную информацию об эмоциональном состоянии собеседников и об окружающей обстановке. Эмоции будут распознаваться за счёт анализа мимики и выражений лица, а сканирование общего контекста даст представление, в какой ситуации происходит коммуникация.
Существующая сейчас система автоматического перевода задействует только речевую информацию. Качество результата в ней далеко от безупречного, и в переводе неизбежно встречаются ошибки. Новая технология будет интегрировать данные о месте события, времени, эмоциональном состоянии участников и за счёт этого сможет уточнять значения слов и повысить качество.
Разработка такой технологии поручена Национальному институту информационных технологий, и выпуск продукта предварительно назначен на 2020 год. Планируется, что такая система будет использоваться при переводе видеоматериалов, в частности в видеоконференциях с зарубежными компаниями.
Комментарии 0