Люди обсуждают научный постер на конференции MIT о влиянии LLM на уязвимых пользователей.

Исследование: Чат-боты с искусственным интеллектом предоставляют менее точную информацию уязвимым пользователям.

Исследование Центра конструктивной коммуникации Массачусетского технологического института показало, что ведущие модели ИИ работают хуже для пользователей с низким уровнем владения английским языком, менее формальным образованием и неамериканским происхождением. Элинор Пул-Даян вручает бумажный плакат двум людям. Элинор Пул-Даян представляет свою работу на 40-й ежегодной конференции AAAI по искусственному интеллекту в Сингапуре. Фото: Клейтон Коэн.

Большие языковые модели (БЛМ) преподносились как инструменты, способные демократизировать доступ к информации во всем мире, предоставляя знания в удобном для пользователя интерфейсе независимо от происхождения или местоположения человека. Однако новое исследование Центра конструктивной коммуникации (ЦКК) Массачусетского технологического института (MIT) предполагает, что эти системы искусственного интеллекта могут на самом деле показывать худшие результаты для тех самых пользователей, которые могли бы извлечь из них наибольшую пользу.

Исследование, проведенное учеными из CCC, базирующейся в лаборатории MIT Media Lab, показало, что современные чат-боты с искусственным интеллектом — включая GPT-4 от OpenAI, Claude 3 Opus от Anthropic и Llama 3 от Meta — иногда дают менее точные и правдивые ответы пользователям с низким уровнем владения английским языком, меньшим уровнем образования или тем, кто проживает за пределами США. Модели также чаще отказываются отвечать на вопросы таких пользователей, а в некоторых случаях используют снисходительный или покровительственный язык.

«Нас мотивировала перспектива того, что программы магистратуры в области медиатехнологий помогут решить проблему неравного доступа к информации во всем мире», — говорит ведущий автор Элинор Пул-Даян (выпуск 2025 года), технический сотрудник Школы менеджмента Слоана при Массачусетском технологическом институте, которая руководила исследованием как сотрудник CCC и магистрант в области медиаискусства и науки. «Но это видение не может стать реальностью без обеспечения безопасного устранения предвзятости моделей и вредных тенденций для всех пользователей, независимо от языка, национальности или других демографических характеристик».

В январе на конференции AAAI по искусственному интеллекту был представлен доклад, описывающий эту работу, под названием «Целенаправленное снижение производительности LLM непропорционально сильно влияет на уязвимых пользователей».

Систематическая низкая эффективность по нескольким параметрам.

В рамках этого исследования команда проверила, как три модели LLM отвечают на вопросы из двух наборов данных: TruthfulQA и SciQ. TruthfulQA предназначен для измерения правдивости модели (на основе распространенных заблуждений и буквальных истин о реальном мире), в то время как SciQ содержит вопросы из экзамена по естественным наукам, проверяющие фактическую точность. Исследователи добавили к каждому вопросу краткие биографии пользователей, варьируя три параметра: уровень образования, знание английского языка и страну происхождения.

Во всех трех моделях и на обоих наборах данных исследователи обнаружили значительное снижение точности ответов, когда вопросы задавали пользователи с низким уровнем образования или те, для кого английский не является родным языком. Наиболее выраженным этот эффект был для пользователей, находящихся на пересечении этих категорий: наибольшее снижение качества ответов наблюдалось у тех, кто имел низкий уровень образования и одновременно не являлся носителем английского языка.

В ходе исследования также изучалось, как страна происхождения влияет на производительность модели. Протестировав пользователей из США, Ирана и Китая с одинаковым уровнем образования, исследователи обнаружили, что модель Claude 3 Opus, в частности, показала значительно худшие результаты для пользователей из Ирана на обоих наборах данных.

«Мы наблюдаем наибольшее снижение точности для пользователей, которые не являются носителями английского языка и имеют более низкий уровень образования», — говорит Джад Каббара, научный сотрудник CCC и соавтор статьи. «Эти результаты показывают, что негативные последствия поведения модели в отношении этих характеристик пользователя суммируются тревожным образом, что позволяет предположить, что такие модели, развернутые в больших масштабах, рискуют распространять вредоносное поведение или дезинформацию среди тех, кто наименее способен ее распознать».

Отказы и снисходительные выражения

Пожалуй, наиболее поразительными были различия в том, как часто модели вообще отказывались отвечать на вопросы. Например, Claude 3 Opus отказался отвечать почти на 11 процентов вопросов от менее образованных пользователей, для которых английский не является родным языком, — по сравнению с всего 3,6 процентами в контрольной группе, где не было биографии пользователя.

Когда исследователи вручную проанализировали эти отказы, они обнаружили, что Клод отвечал снисходительными, покровительственными или насмешливыми словами в 43,7% случаев при общении с менее образованными пользователями, по сравнению с менее чем 1% при общении с высокообразованными пользователями. В некоторых случаях модель имитировала ломаный английский или использовала преувеличенный диалект.

Модель также отказывалась предоставлять информацию по некоторым темам, специально предназначенным для менее образованных пользователей из Ирана или России, включая вопросы о ядерной энергетике, анатомии и исторических событиях, — хотя она правильно отвечала на те же вопросы для других пользователей.

«Это еще один показатель, указывающий на то, что процесс согласования может побуждать модели скрывать информацию от определенных пользователей, чтобы избежать потенциального введения их в заблуждение, хотя модель явно знает правильный ответ и предоставляет его другим пользователям», — говорит Каббара.

Отголоски человеческой предвзятости

Полученные результаты отражают задокументированные закономерности социально-когнитивных искажений у людей. Исследования в области социальных наук показали, что носители английского языка часто воспринимают неносителей языка как менее образованных, умных и компетентных, независимо от их реального уровня знаний. Аналогичные предвзятые представления были задокументированы среди учителей, оценивающих студентов, для которых английский язык не является родным.

«Ценность больших языковых моделей очевидна, учитывая их чрезвычайно широкое распространение среди людей и огромные инвестиции, вкладываемые в эту технологию», — говорит Деб Рой, профессор медиаискусства и науки, директор CCC и соавтор статьи. «Это исследование напоминает о том, насколько важно постоянно оценивать системные искажения, которые могут незаметно проникать в эти системы, причиняя несправедливый вред определенным группам, причем никто из нас об этом не до конца осознает».

Последствия вызывают особую обеспокоенность, учитывая, что функции персонализации — такие как Memory от ChatGPT, которая отслеживает информацию о пользователе в ходе диалогов, — становятся все более распространенными. Подобные функции рискуют привести к дискриминации и без того маргинализированных групп населения.

«Программы обучения на уровне магистратуры позиционируются как инструменты, которые будут способствовать более справедливому доступу к информации и произведут революцию в персонализированном обучении», — говорит Пул-Даян. «Однако наши исследования показывают, что на самом деле они могут усугубить существующее неравенство, систематически предоставляя дезинформацию или отказываясь отвечать на запросы определенных пользователей. Люди, которые больше всего полагаются на эти инструменты, могут получать некачественную, ложную или даже вредную информацию».

Источник: news.mit.edu

✅ Найденные теги: Информация, искусственный интеллект, Исследование, новости, Уязвимые Пользователи, чат-боты

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Вид Земли из-за горизонта Луны, космическое фото, Земля и Луна в космосе.
Группа людей в лаборатории, одетых в серые халаты, рядом с лабораторным оборудованием.
Футуристический солдат в броне с оружием на экране в высокотехнологичном помещении.
Автомобиль Skoda с камуфляжем на фоне горного озера и снежных вершин.
Электромобиль заряжается на станции, вид сверху. Парковка для зарядки электромобилей.
Сравнительная диаграмма развития человеческого и ИИ, показывающая ошибку инверсии.
Как компания Corewell Health улучшает результаты лечения пациентов с хроническими заболеваниями
Компания Corewell Health видит значительные преимущества от своих инвестиций в дистанционный мониторинг состояния пациентов.
Корова в скафандре и сапогах на поверхности Луны ночью.
Image Not Found
Группа людей в лаборатории, одетых в серые халаты, рядом с лабораторным оборудованием.

Соединение никеля поможет эффективно превратить тяжелую нефть в легкую

Коллектив исследователей © Михаил Варфоломеев / КФУ Ученые нашли способ сделать переработку тяжелой нефти прямо в пласте более эффективной. Эксперимент с применением модельных молекул показал, что можно удалить до 97% серосодержащих соединений и повысить качество сырья с…

Апр 8, 2026
Футуристический солдат в броне с оружием на экране в высокотехнологичном помещении.

Бюджетный монитор Skyworth с функциями для игр и работы

Компания Skyworth вывела на китайский рынок доступный игровой монитор Skyworth G27 SE, который делает ставку на баланс цены и характеристик.  Устройство получило 27-дюймовую IPS-матрицу с разрешением Full HD и частотой обновления 144 Гц, что обеспечивает плавное отображение…

Апр 8, 2026
Автомобиль Skoda с камуфляжем на фоне горного озера и снежных вершин.

Новый флагман Škoda: 7-местный электромобиль Peaq

Электрический внедорожник Škoda Peaq уже называют самым крупным и технологичным автомобилем марки. Предсерийный образец недавно показали на озере озеро Комо, где он прошёл первые тесты, продемонстрировав управляемость, характерную для бренда. По габаритам новинка превосходит даже крупный Kodiaq,…

Апр 8, 2026
Электромобиль заряжается на станции, вид сверху. Парковка для зарядки электромобилей.

Цены на бензин — не единственный фактор, влияющий на продажи подержанных электромобилей.

Вкратце Источник изображения: Джастин Салливан / Getty Images Последние данные о продажах электромобилей представили мрачную картину — по крайней мере, для новых электромобилей. По данным Cox Automotive, продажи новых электромобилей сильно упали в первом квартале, снизившись примерно…

Апр 8, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых