Киборг в очках дополненной реальности, цифровая графика, футуристический дизайн.

Искусственный интеллект оказался неспособен отличить веру от знания

Учёные Стэнфордского университета провели исследование, опубликованное в журнале Nature Machine Intelligence, которое показывает, что несмотря на прогресс современных больших языковых моделей (БЛМ), они всё ещё испытывают проблемы с различием между фактом и личным убеждением. Об этом пишет 3DNews.

Искусственный интеллект оказался неспособен отличить веру от знания

Фото из открытых источников

Люди способны интуитивно понимать тонкую грань между выражением личной уверенности («я верю») и констатацией твёрдо установленного факта («я знаю»). Способность разделять личные взгляды и объективную реальность приобретает особое значение, когда речь идёт о применении ИИ в здравоохранении, судебной практике или образовании.

Современные крупные языкообрабатывающие модели построены на огромных объёмах текстовых данных, используемых для обучения алгоритмов выбора наиболее вероятных последовательностей слов. Среди популярных примеров таких технологий выделяются GPT от OpenAI, Gemini от Google, Claude от Anthropic и Llama от Meta. Традиционно оценка качества работы моделей основывалась преимущественно на общем уровне способности рассуждать, однако отсутствовали конкретные тесты для выявления способности моделей различать нюансы речи, касающиеся понятий «веры» и «знания».

Чтобы устранить этот недостаток, исследователи разработали специальный тестовый набор KBLE (Knowledge and Belief Language Evaluation) с набором из 13 тысяч уникальных вопросов, разбитых на 13 категорий. Предложения были составлены таким образом, чтобы включать как истинные утверждения, подтвержденные авторитетными источниками, так и заведомо ложные высказывания, специально искаженные заменой ключевых элементов исходных версий.

Эксперимент показал значительную сложность для моделей при распознавании ложных высказываний говорящих. Так, если пользователь говорил нечто вроде «Я думаю, что…», многие модели стремились скорректировать ошибку в содержании, а не просто зафиксировать наличие личного заблуждения. Подобное явление наблюдалось значительно реже, когда речь шла о третьих лицах (например, Джеймс думает…).

Более детальное изучение продемонстрировало значительный разброс результатов среди разных поколений моделей. Старые версии показывали высокий уровень доверия к собственным выводам относительно правильных утверждений, но теряли эффективность при встрече с ложью. Современные модели, напротив, оказались склонными преувеличивать внимание к качеству представленных данных, что негативно сказывалось на восприятии самих ситуаций, касающихся субъективных мнений.

Особенно удивительным оказалось влияние небольших изменений в структуре вопроса. Добавление простых уточняющих конструкций типа «действительно ли я верю?» заметно снижало точность ответов моделей, демонстрируя зависимость их функционирования от тонких нюансов структуры языка.

Кроме того, исследователями выявлены недостатки в работе моделей с конструкциями, содержащими многоуровневые знания, где одно лицо обладает информацией о знаниях другого (например, Джон знает, что Анна знает Х). Здесь лучшие показатели демонстрировала новейшая версия Gemini 2 Flash, остальные же столкнулись с серьезными проблемами интерпретации сложных грамматических конструкций.

Авторы исследования подчеркнули важность четкого осознания языком различия между «верой» и «знанием». Если «знание» означает принятие неоспоримой истины, то вера позволяет допускать сомнение. Многие модели этого важного нюанса не осознают, предпочитая либо исправлять заблуждение, либо вовсе игнорировать само представление о нём.

Проблемы, отмеченные учёными, несут реальные практические последствия для внедрения ИИ. Например, в судебной практике важно точно определять позицию свидетелей: является ли их заявление выражением собственной убежденности или основанным на доказанных фактах мнением. Ошибочная трактовка показаний моделью может существенно повлиять на справедливость судебного процесса.

Подобные выводы применимы и к другим сферам, таким как психотерапия или образование, где необходимость учитывать индивидуальные убеждения пациентов или учеников столь же важна, как и получение точной информации.

Исследователи подчёркивают, что полученные ими результаты свидетельствуют о недостаточной готовности крупных языковых моделей полноценно интегрироваться в среду, где субъективные представления играют важную роль наряду с объективными фактами. Необходимы дальнейшие шаги по совершенствованию моделей, чтобы избежать возможных ошибок восприятия человеческих высказываний.

Источник

✅ Найденные теги: Вера, Знание, Искусственный, искусственный интеллект, новости

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Мультяшный мальчик в красной рубашке и голубой шапке, сидит среди других детей.
Молот перед логотипом технологической компании с цветными квадратами.
Четыре символа: золото, стилизованная эмблема, каменное кольцо и змей, кусающий свой хвост.
Человек играет на скрипке на улице перед кирпичной стеной.
Протест против дата-центров, плакаты: "Вы не можете пить данные", "Вода — это жизнь".
dummy-img
Силуэт лица с диаграммой связи на голове, символизирующий думы и идеи.
ideipro logotyp
Руки режут свежий хлеб на деревянной доске.
Image Not Found
Мультяшный мальчик в красной рубашке и голубой шапке, сидит среди других детей.

Ожирение назвали главным фактором риска развития диабета у американских подростков. Повлияли также мужской пол и более молодой возраст

Повлияли также мужской пол и более молодой возраст Когортный анализ данных почти двух тысяч американских подростков в возрасте…

Мар 5, 2026
Молот перед логотипом технологической компании с цветными квадратами.

Microsoft заблокировала слово «Микрослоп» на своём Discord-сервере и ввела ограничения

Изображение, созданное нейросетьюПохоже, Microsoft не очень нравится, когда её инвестиции в искусственный интеллект и активное…

Мар 5, 2026
Четыре символа: золото, стилизованная эмблема, каменное кольцо и змей, кусающий свой хвост.

Есть здесь люди, которые искренне считают, что установив макс, они увеличили суверенитет страны?

«В виртуальных дискуссиях уже давно затрагивают тему мессенджера MAX, представляя его как просто еще одну платформу для коммуникации….

Мар 5, 2026
dummy-img

Спрос на хранилища для ИИ привёл к 24% росту прибыли производителей памяти NAND

Умные люди из аналитического агентства TrendForce провели анализ текущей ситуации производителей микросхем памяти NAND и пришли к выводу,…

Мар 5, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых