ИИ

AI-инструмент транскрипции вызывает беспокойство из-за своей неточности

Published October 26, 2024

Инструмент транскрипции Whisper, разработанный компанией OpenAI, предназначен для преобразования речи в текст, но, согласно мнению экспертов, он часто выдает полностью вымышленные фрагменты текста. Это описывается как "галлюцинация" и включает в себя как измышления, так и ложные медицинские рекомендации.

Недостатки инструмента

Фахивцы отмечают, что такие ошибки представляют риск, особенно в медицинских учреждениях, где Whisper используется для транскрипции консультаций с пациентами. Более 30,000 врачей уже применяют данную технологию, игнорируя предупреждения OpenAI о возможных ошибках в "высоких рисковых областях".

Примеры галлюцинаций

Одно исследование показало, что 40% из найденных галлюцинаций в транскрипциях могут быть вредными. Такие фальшивые комментарии могут привести к недопониманию или ошибочным диагнозам.

AI, технологии, медицинские