Технология

Искусственные интеллекты могут 'галлюцинировать' - вот как это распознать

Published December 22, 2023

Искусственный интеллект, или ИИ, с каждым днём становится всё умнее, но даже он может 'галлюцинировать', то есть придумывать факты. Эта проблема возникает, когда ИИ конструирует ответы, основанные не на правде, а на выдумке. К примеру, чат-бот может утвердить, что Статуя Свободы находится в Калифорнии, хотя на самом деле она в Нью-Йорке, или придумать несуществующего автора проекта.

Такие 'галлюцинации' происходят потому, что ИИ ориентируется на огромные массивы данных для обучения и понимания связей между словами. Иногда ИИ выбирает слова, которые кажутся логичными, но на самом деле не соответствуют действительности.

Как Google и OpenAI справляются с 'галлюцинациями'

Компании предупреждают пользователей об ошибках ИИ и просят их проверять получаемую информацию. Также они разрабатывают методы, позволяющие уменьшить число 'галлюцинаций', например, через обратную связь от пользователей или процесс надзора.

интеллект, галлюцинации, распознавание