Искусственные интеллекты могут 'галлюцинировать' - вот как это распознать
Искусственный интеллект, или ИИ, с каждым днём становится всё умнее, но даже он может 'галлюцинировать', то есть придумывать факты. Эта проблема возникает, когда ИИ конструирует ответы, основанные не на правде, а на выдумке. К примеру, чат-бот может утвердить, что Статуя Свободы находится в Калифорнии, хотя на самом деле она в Нью-Йорке, или придумать несуществующего автора проекта.
Такие 'галлюцинации' происходят потому, что ИИ ориентируется на огромные массивы данных для обучения и понимания связей между словами. Иногда ИИ выбирает слова, которые кажутся логичными, но на самом деле не соответствуют действительности.
Как Google и OpenAI справляются с 'галлюцинациями'
Компании предупреждают пользователей об ошибках ИИ и просят их проверять получаемую информацию. Также они разрабатывают методы, позволяющие уменьшить число 'галлюцинаций', например, через обратную связь от пользователей или процесс надзора.
интеллект, галлюцинации, распознавание