
Научный сотрудник из НИУ ВШЭ Растям Алиев исследовал склонность искусственного интеллекта к галлюцинациям. В статье «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» он сравнивает вымышленные факты, которые генерируют большие языковые модели, с симптомами психических заболеваний у людей.
«Наше общество всегда представляло искусственный интеллект как холодного и безэмоционального робота, что больше соответствует диагнозу аутизма. Однако нейросети не демонстрируют признаков РАС. Они интерпретируют эмоции в тексте и создают когнитивные искажения, — объясняет Алиев. — Чтобы проверить, что «пациент» болен, достаточно попросить ИИ отвечать как человек с шизофренией. Точность его ответов возрастает, как будто он внимательнее к деталям, то есть к знакам».
При сложных запросах галлюцинации усиливаются: не находя готового ответа, нейросеть комбинирует реальные факты с собственными домыслами. Этот феномен порождает новое понятие — метасимулякр, псевдореальность, где алгоритмы формируют способы мышления. Алиев считает это признаком «психических болезней» ИИ.
«Продукты ИИ основаны на реальности, но предвосхищают ее. Изображения реальных людей или мест с искажениями — типичный пример метасимулякра», — добавляет Алиев.
Особенность современных ИИ — неспособность распознавать свои ошибки. Большие языковые модели уверены в правильности ответа, даже если он неправдив. Когда пользователь указывает на неточность, нейросеть приводит аргументы, которые оказываются ее галлюцинациями. Ученый предупреждает: доверять ИИ сейчас полностью нельзя.
«В современном мире ИИ становится частью повседневности, заменяя сотрудников и даже помогая в психологии. Но относиться к нему нужно осторожно. Помните, что ваш собеседник «болен», и всегда перепроверяйте его ответы», — заключает Алиев.
В будущем Алиев не исключает создание «чистых и полноценных» ИИ без склонности к галлюцинациям. Но для этого нужно глубже понять природу этих «расстройств».
Источник: vk.com
Источник: ai-news.ru



























