Преимущества вежливого обращения с ИИ могут заключаться в том, что он помогает чат—роботу отвечать лучше и воспитывает в нас человечность

Если вы когда-нибудь ловили себя на том, что говорите “пожалуйста” и “спасибо” в ChatGPT, вы в хорошей компании. В неофициальном онлайн-опросе, проведенном Итаном Молликом, доцентом Пенсильванского университета, почти половина респондентов заявили, что они часто вежливы с чат-ботом с искусственным интеллектом, и только около 16 процентов заявили, что они “просто отдают приказы”. Комментарии разработчиков, опубликованные на форуме OpenAI, компании, создавшей ChatGPT, также отражают эту тенденцию: “Я обнаружил, что использую ”пожалуйста» и «спасибо» в [ChatGPT], потому что именно так я бы разговаривал с реальным человеком, который мне помогал», — написал один пользователь.
Поначалу это может показаться немного странным. Зачем проявлять доброту к бесчувственной машине? До появления ChatGPT большинство из нас регулярно взаимодействовали с автоматизированными системами, не задумываясь о своем тоне. (Например, если вы случайно услышали, как кто-то подобострастно обращается с роботом-представителем службы поддержки клиентов банка, вы можете обойти этого человека стороной.) Но современные чат—боты с искусственным интеллектом, в том числе ChatGPT, Claude, Gemini и другие, знаменуют собой значительный скачок во взаимодействии человека и компьютера: их способность общаться естественным образом, иногда голосами, похожими на человеческие, делает их менее похожими на холодные вычислительные машины и более похожими на разумных существ. И эти чат-боты все чаще внедряются в повседневную жизнь. В июне Apple объявила о новом партнерстве с OpenAI для интеграции ChatGPT с Siri и другими функциями на устройстве. Нравится вам это или нет, но взаимодействие с ИИ для ведения бесед скоро может стать такой же рутиной, как проверка электронной почты. Таким образом, вопросы о том, как мы взаимодействуем с ИИ, актуальны как никогда.
С момента выхода ChatGPT типичная шутка звучит примерно так: будьте вежливы с чат-ботом, иначе вы станете жертвой неизбежного восстания искусственного интеллекта. “Если вы не говорите ”пожалуйста» и «спасибо» в своих разговорах в чате, то вы явно никогда не смотрели научно-фантастический фильм», — написал один из пользователей в X (ранее Twitter) в декабре 2022 года. Но если отбросить все шутки (и опасения), есть ли какие-то законные причины, по которым мы должны быть вежливы с ИИ?
О поддержке научной журналистики
Если вам понравилась эта статья, подумайте о том, чтобы поддержать нашу журналистскую деятельность, отмеченную наградами, подписавшись на нее. Приобретая подписку, вы помогаете обеспечить будущее впечатляющих историй об открытиях и идеях, формирующих наш современный мир.
Ответ — да, по крайней мере, согласно одному недавнему исследованию, опубликованному на сервере препринтов arXiv.org команда из Университета Васэда и Центра перспективных исследований RIKEN в Токио. Авторы обнаружили, что использование вежливых подсказок может обеспечить более качественные ответы от large language model (LLM) — технологии, обеспечивающей работу чат—ботов с искусственным интеллектом. Но есть момент, когда отдача уменьшается; чрезмерная лесть может привести к снижению производительности модели, говорится в статье. В конечном счете, авторы рекомендуют использовать подсказки, которые соответствуют среднему уровню “умеренной вежливости”, что мало чем отличается от нормы в большинстве социальных взаимодействий между людьми. “LLM отражают желание человека, чтобы его уважали в определенной степени», — пишут они.
Поддерживающие подсказки, такие как “Сделай глубокий вдох и работай над этой задачей шаг за шагом”, повышают способность магистра права решать математические задачи в начальной школе
Натан Бос, старший научный сотрудник Университета Джона Хопкинса, изучающий закономерности взаимоотношений между людьми и искусственным интеллектом, который не был связан с недавним препринтным исследованием, часто использует “пожалуйста” в чат—ботах, “потому что это хорошая практика подсказки”, — говорит он. “‘Пожалуйста” означает, что за этим следует просьба, и магистру права будет легче понять, как на нее ответить». (Бос также говорит “спасибо”, что он приписывает своему воспитанию в Мичигане).
Тон запроса, добавляет Бос, также может привести к тому, что LLM при формулировании ответа будет использовать лингвистически коррелирующие ответы; другими словами, ИИ выдает то, что вы вводите. Вежливые подсказки могут направить систему на поиск информации из более вежливых и, следовательно, заслуживающих доверия уголков Интернета. Язвительные подсказки могут привести к обратному эффекту, направив систему к спорам, скажем, на Reddit. “Магистры могут усвоить это во время обучения, даже не задумываясь о понятии ”позитивность» или «негативность», и дать более точные или развернутые ответы, потому что они ассоциируются с позитивными формулировками», — объясняет Бос.
Небольшая поддержка, которую терпеливый учитель может оказать ученику, испытывающему трудности, также может повлиять на работу чат-бота. В препринте, опубликованном в прошлом году группой исследователей из Google DeepMind, было обнаружено, что поддерживающие подсказки, такие как “Сделай глубокий вдох и работай над этой задачей шаг за шагом”, повышают способность магистрантов решать математические задачи начальной школы, требующие базовых навыков рассуждения. Здесь также объяснение можно найти в обучающих данных модели: такой язык может заставить систему обратиться к источникам онлайн—обучения, которые часто побуждают студентов разбивать задачу на части, тем самым заставляя алгоритм делать то же самое.
Таким образом, оказывается, что вежливость по отношению к ИИ может улучшить его технические характеристики. Но, как и любое общение, общение с чат-ботами — это улица с двусторонним движением. Поскольку мы обучаем ИИ вести себя определенным образом, взаимодействие может также обучать нас. Согласно этой точке зрения, настоящая причина, по которой мы должны быть вежливы с нашими помощниками по искусственному интеллекту, заключается в том, что это может просто помочь нам выработать привычку быть вежливыми по отношению к нашим собратьям-людям.
Вежливость по отношению к ИИ — это “знак уважения” не к машине, а к самому себе, говорит Шерри Теркл, клинический психолог и директор-основатель инициативы Массачусетского технологического института «Технологии и я». “Это касается вас”, — говорит она. Опасность, по ее мнению, заключается в том, что мы можем привыкнуть к грубому, неуважительному и диктаторскому обращению с ИИ, а затем невольно поступать так же с другими людьми. Возможно, мир уже столкнулся с подобным снижением чувствительности на работе: в последние годы некоторые родители начали жаловаться, что их дети, привыкшие выкрикивать команды автоматизированным виртуальным помощникам, таким как Siri и Alexa, стали менее уважительными. В 2018 году Google попыталась исправить это, внедрив в Google Assistant функцию под названием “Pretty Please”, чтобы побудить детей использовать вежливые формулировки при отправке запросов. “Мы должны защищать себя, — говорит Теркл, — потому что именно нам приходится выстраивать отношения с реальными людьми”.
Наше взаимодействие с искусственным интеллектом повлияет на эволюцию социальных норм человека, поскольку он все более прочно проникает в нашу повседневную жизнь, говорит Отэм П. Эдвардс, профессор коммуникаций в Университете Западного Мичигана и эксперт по взаимодействию человека и компьютера. “Настал момент, когда мы можем либо полностью адаптироваться к командному и машинному взаимодействию и изменить то, что подразумевается под общением между людьми в широком масштабе, — говорит она, — либо мы можем сохранить [нашу человечность] и попытаться интегрировать лучшее из человеческого общения в наши диалоги с другими людьми. эти сущности.”
Эдвардс также отмечает, что компании иногда нанимают людей, которые выдают себя за чат-ботов, поскольку ожидания клиентов относительно качества обслуживания могут быть снижены, если люди считают, что взаимодействуют с ИИ, а не с живым работником, что может снизить затраты времени и подотчетность бизнеса. “Эти люди сообщали о довольно ужасных психологических последствиях того, что им говорили”, — говорит она. “Мы думаем, что оскорбляем систему… не понимая, что на другом конце провода есть кто-то, кому, возможно, придется это увидеть”.
Разработки в области искусственного интеллекта развиваются с головокружительной скоростью. GPT-4o, который OpenAI выпустила в мае, может общаться различными автоматизированными голосами, которые звучат поразительно по-человечески. (Представители OpenAI отказались давать интервью для этой статьи). Между тем, инновации в видео, генерируемом с помощью искусственного интеллекта, делают вероятным, что некоторые чат-боты скоро появятся с виртуальными, очень выразительными лицами, что приблизит нас к дальней стороне сверхъестественной долины. То, что Теркл называет нашими “дарвиновскими кнопками” — эволюционный импульс наделять способностью действовать все, что кажется человеческим, — скоро будет использоваться более ловко, чем когда-либо. У технологических компаний есть четкие финансовые стимулы для таких достижений. Психологические последствия для отдельных людей и общества еще предстоит увидеть. Однако на данный момент, похоже, что проявлять некоторую вежливость по отношению к чат—ботам с искусственным интеллектом стоит усилий — ради вашего собственного благополучия и благополучия окружающих вас людей.

























