Что нужно знать о чат-ботах с искусственным интеллектом (часть 2)

Чат-боты на основе ИИ развиваются так стремительно, что за ними трудно угнаться. Кстати, с момента написания первой части этой статьи OpenAI уже успела выпустить совершенно новую версию ChatGPT. GPT-4 отличается впечатляющими способностями, например может проходить стандартизированные тесты, делать анализ изображений и писать код на всех основных языках программирования.

Пока разные компании пытаются превзойти свои предыдущие творения, самое время сделать паузу и оценить, действительно ли эти чат-боты такие «новые и улучшенные». Давайте оценим как перспективы, так и опасности технологии чат-ботов на основе ИИ для переводческой отрасли.

Преимущества чат-ботов на основе ИИ

С коммерческой точки зрения ИИ открывает новые захватывающие перспективы в плане сокращения расходов и времени выполнения заказов. Продвинутые чат-боты можно использовать, например, для привлечения клиентов и улучшения их обслуживания, для написания видеосценариев и описаний товаров или для отладки кода. Они могут помочь в создании многоязычного контента в самых разных форматах за меньшее время и меньшие деньги.

Отдельные переводчики могут использовать чат-боты в качестве помощника при переводе. Малым предприятиям, имеющим ограниченный бюджет, может показаться особенно заманчивым использовать чат-бота для решения лингвистических задач. Или чат-бот может стать решением, если корпорация хочет, скажем, усовершенствовать поддержку клиентов в режиме реального времени на ста языках, не платя при этом сотне различных ИТ-команд по всему миру.

Опасности чат-ботов на основе ИИ

Но могут ли эти плюсы перевеcить имеющиеся подводные камни? Вот три основные проблемы для переводческой отрасли, связанные с чат-ботами на основе ИИ.

Вредоносный контент и неточности

Чат-боты на основе ИИ хороши лишь в той степени, в какой хороши данные, на которых они натренированы. К сожалению, массивы данных по своей природе весьма необъективны. В ходе неоднократных тестирований был получен контент, варьирующийся от досадно неточного до откровенно шокирующего: например, чат-боты угрожали причинить вред пользователям или способствовали разжиганию ненависти. Разработчики признали, что ИИ иногда может «галлюцинировать» факты, которые не соответствуют действительности, но чат-боты будут представлять их с полной уверенностью.

OpenAI пытается устранить некоторые из этих проблем в GPT-4, который называют менее ошибочным, чем его предшественник. Однако нет таких чат-ботов, которые гарантировали бы отсутствие оскорблений. Поскольку чат-ботам на основе ИИ не хватает культурной и лингвистической осведомленности реальных людей, они плохо приспособлены для работы с переводами первостепенной важности, например, в больницах, залах суда, международной политике и т. д.

Этические дилеммы

Кроме того, этика того контента, который создает ИИ, не до конца определена, что заставляет проявлять осторожность, прежде чем вступать на этот путь.

Университеты, например, бьют тревогу по поводу использования чат-ботов для написания рефератов и выполнения других домашних заданий, что приводит к обвинениям в плагиате. У чат-ботов на основе ИИ также непростые отношения с трудовыми ресурсами – есть опасения, что ИИ может привести к масштабному сокращению рабочих мест, а также тревога по поводу низкооплачиваемых, эксплуатируемых работников, которых часто используют, в первую очередь, для «обучения» ИИ. И это мы еще не дошли до темы потенциального влиянии энергоемких ИИ-моделей на выбросы углекислого газа в то время, когда все больше компаний уделяют первостепенное внимание устойчивому развитию.

Еще хуже то, что ChatGPT широко распахнул двери для умышленно действующих мошенников, которые используют этот чат-бот для генерации вредоносного ПО, тонкой настройки фишинговых электронных писем и распространения фейковых новостей. Хотя компании работают над тем, чтобы блокировать неправомерное использование своих платформ, хакеры работают так же быстро, чтобы найти способы обойти эти защитные средства. Переводчикам следует учитывать это этическое «минное поле» и крайне осторожно полагаться на чат-боты на основе ИИ без тщательной проверки качества работы экспертами.

Безопасность и конфиденциальность

Основной проблемой для индустрии переводов является отсутствие безопасности у чат-ботов. Нет никакой гарантии, что контент, который вы передаете чат-боту на основе ИИ, будет защищен от доступа третьих лиц. Фактически, любая введенная информация будет скопирована чат-ботом и использована для улучшения его данных, и вы не сможете с этим ничего поделать. Все массивы данных чат-ботов на основе ИИ состоят из тысяч слов, взятых из Интернета без согласия их владельцев.

Для переводчиков, работающих с конфиденциальными материалами и интеллектуальной собственностью, это серьезная проблема. В совокупности с опасениями по поводу политики конфиденциальности пользователей OpenAI и обмена информацией в настоящее время неясно, соответствуют ли ChatGPT и GPT-4 европейскому Общему регламенту по защите данных (GDPR). Несоблюдение требований этого регламента станет серьезной проблемой для компаний, ведущих бизнес в Европе.

Заменят ли чат-боты на основе ИИ живых переводчиков?

С учетом всего вышесказанного, когда мы задаемся вопросом, заменят ли чат-боты на основе ИИ живых переводчиков, ответ, скорее всего, будет отрицательным… до поры до времени? Нельзя забывать, что для того, чтобы боты были хоть немного пригодны к использованию, им требуется значительное участие человека и обучение. В отличие от людей, которые могут в нужный момент адаптироваться, проявлять гибкость, понимать юмор и пользоваться при переводе межкультурной компетенцией.

Вместо этого реальные перспективы генеративного ИИ могут заключаться в том, что это приведет к повышенному спросу на постредактирование машинных переводов силами человека-редактора. Поскольку компании используют чат-ботов для создания все большего количества контента, обязательным условием должно быть наличие профессиональных переводчиков, которые помогут отшлифовать этот контент.

Фото: Alexandra_Koch, Pixabay