Галлюцинация (искусственный интеллект)
Галлюцинация — уверенная реакция системы искусственного интелекта, не соответствующая исходным данным, на которых проводилось её обучение; вымышленные ответы системы, не имеющие отношения к действительности[1].
Например, чат-бот, не получив в исходных данных сведений о доходах Tesla, может выбрать случайное число (например, «$13,6 млрд»), которое включит в собственную систему знаний и в дальнейшем будет неоднократно настаивать на этом без каких-либо признаков критического пересмотра[2].
Широкое внимание к подобного рода эффектам проявилось в 2022 году в связи массовым внедрением больших языковых моделей: пользователи жаловались, что такие боты часто казались «социопатическими» и бессмысленно встраивали правдоподобно звучащие ложные утверждения в ответы[3][4]; в 2023 году аналитики отнесли галлюцинации к одной из серьёзных проблем технологии больших языковых моделей[5]; в связи с этим Илон Маск и Стив Возняк обратились с открытым письмом с предложением приостановить развитие программ искусственного интеллекта, их обращение поддержали более тысячи предпринимателей и экспертов в отрасли[1].
Ряд исследователей считает, что некоторые ответы систем искусственного интеллекта, классифицируемые пользователями как галлюцинации, могут быть объяснены неспособностью пользователей оценить правильность ответа, в качестве примера приводилось точечное изображение, выглядящее для человека как обычное изображение собаки, но на котором программная система обнаруживает фрагменты узора шерсти, характерные только для кошек, ставя высокий приоритет признакам, к которым люди нечувствительны[6]; эти выводы были оспорены другими исследователями[7].
Примечания
- ↑ 1 2 Искусственный интеллект как угроза человечеству. Маск и Возняк призвали сделать паузу в развитии технологий ИИ. BBC News Русская служба. Архивировано 31 марта 2023. Дата обращения: 31 марта 2023.
- ↑ fastcompany. Дата обращения: 25 марта 2023. Архивировано 29 марта 2023 года.
- ↑ Charles Seife. The Alarming Deceptions at the Heart of an Astounding New Chatbot (амер. англ.) // Slate. — 2022-12-13. — ISSN 1091-2339. Архивировано 26 марта 2023 года.
- ↑ Lance Eliot. AI Ethics Lucidly Questioning This Whole Hallucinating AI Popularized Trend That Has Got To Stop (англ.). Forbes. Дата обращения: 25 марта 2023. Архивировано 11 апреля 2023 года.
- ↑ Kif Leswing. Microsoft's Bing A.I. made several factual errors in last week's launch demo (англ.). CNBC. Дата обращения: 25 марта 2023. Архивировано 16 февраля 2023 года.
- ↑ Louise Matsakis. Artificial Intelligence May Not 'Hallucinate' After All (амер. англ.) // Wired. — ISSN 1059-1028. Архивировано 26 марта 2023 года.
- ↑ Justin Gilmer, Dan Hendrycks. A Discussion of 'Adversarial Examples Are Not Bugs, They Are Features': Adversarial Example Researchers Need to Expand What is Meant by 'Robustness' (англ.) // Distill. — 2019-08-06. — Vol. 4, iss. 8. — P. e00019.1. — ISSN 2476-0757. — doi:10.23915/distill.00019.1. Архивировано 26 марта 2023 года.