AI-инструмент транскрипции вызывает беспокойство из-за своей неточности
Инструмент транскрипции Whisper, разработанный компанией OpenAI, предназначен для преобразования речи в текст, но, согласно мнению экспертов, он часто выдает полностью вымышленные фрагменты текста. Это описывается как "галлюцинация" и включает в себя как измышления, так и ложные медицинские рекомендации.
Недостатки инструмента
Фахивцы отмечают, что такие ошибки представляют риск, особенно в медицинских учреждениях, где Whisper используется для транскрипции консультаций с пациентами. Более 30,000 врачей уже применяют данную технологию, игнорируя предупреждения OpenAI о возможных ошибках в "высоких рисковых областях".
Примеры галлюцинаций
Одно исследование показало, что 40% из найденных галлюцинаций в транскрипциях могут быть вредными. Такие фальшивые комментарии могут привести к недопониманию или ошибочным диагнозам.
AI, технологии, медицинские