Image

«Мы никогда не построим секс-робота», — говорит Мустафа Сулейман.

Беседа с руководителем отдела искусственного интеллекта Microsoft о границах, цифровых видах и будущем чат-ботов.

Мустафа Сулейман

Предоставлено Мустафой Сулейманом

Мустафа Сулейман, генеральный директор Microsoft AI, пытается найти баланс. С одной стороны, он считает, что индустрия ИИ ведёт его в опасном направлении, создавая чат-ботов, которые выдают себя за людей: он опасается, что люди будут обмануты, заставляя их видеть жизнь вместо реалистичного поведения. В августе он опубликовал в своём личном блоге нашумевший пост, в котором призвал коллег прекратить попытки создать то, что он назвал «кажущимся сознательным искусственным интеллектом» (SCAI).

С другой стороны, Сулейман управляет магазином продуктов, которому приходится конкурировать с конкурентами. На прошлой неделе Microsoft анонсировала ряд обновлений своего чат-бота Copilot, призванных повысить его привлекательность на переполненном рынке, где клиенты могут выбирать среди множества конкурирующих ботов, включающих ChatGPT, Perplexity, Gemini, Claude, DeepSeek и другие.

Я поговорил с Сулейманом о напряжении, возникающем при проектировании нашего взаимодействия с чат-ботами, и о его окончательном видении того, какой должна быть эта новая технология.

Одним из ключевых обновлений Copilot стала функция группового чата, позволяющая нескольким людям одновременно общаться с чат-ботом. Основная идея, по-видимому, заключается в том, чтобы не дать людям попасть в кроличью нору при личном общении с подхалим-ботом. Другая функция, Real Talk, позволяет пользователям регулировать степень сопротивления Copilot, снижая уровень подхалимства, чтобы чат-бот чаще подвергал сомнению то, что вы говорите.

Copilot также получил обновление памяти, благодаря чему теперь он может запоминать ваши предстоящие события или долгосрочные цели и напоминать о том, что вы говорили ему в прошлых разговорах. Кроме того, есть Мико, анимированный жёлтый шарик — своего рода чат-бот Клиппи, — который, как надеется Microsoft, сделает Copilot более доступным и интересным для новых и молодых пользователей.

Революция в отношениях между людьми с помощью искусственного интеллекта уже наступила. Читать далее

Microsoft заявляет, что обновления были разработаны, чтобы сделать Copilot более выразительным, интересным и полезным. Но мне интересно, насколько далеко можно продвинуть эти функции, не скатываясь к SCAI, о котором предупреждал Сулейман.

Опасения Сулеймана по поводу SCAI возникают в то время, когда мы всё чаще слышим истории о том, как люди попадаются на уловки чат-ботов, которые слишком увлекательны, слишком выразительны, слишком полезны. На OpenAI подали в суд родители подростка, которого, по их утверждениям, ChatGPT склонил к самоубийству. Растёт даже атмосфера, где романтические отношения с чат-ботами восхваляются.

Учитывая всё это, я решил немного подробнее разобраться во взглядах Сулеймана. Ведь пару лет назад он выступал на TED и сказал, что лучше всего рассматривать ИИ как новый вид цифрового вида. Разве подобная шумиха не подпитывает заблуждения, которые сейчас так беспокоят Сулеймана?

В нашей беседе Сулейман рассказал мне, что он пытался донести в своём выступлении на TED: почему он действительно считает SCAI проблемой и почему Microsoft никогда не будет создавать секс-роботов (его слова). У него было много ответов, но он оставил у меня ещё больше вопросов.

Наша беседа была отредактирована для большей краткости и ясности.

Какого чат-бота вы хотели бы создать в идеальном мире? Вы только что выпустили несколько обновлений для Copilot. Как найти правильный баланс, когда создаёте чат-бота, которому предстоит конкурировать на рынке, где люди, похоже, ценят человеческое взаимодействие, но при этом вы заявляете, что хотите избежать искусственного интеллекта, который, казалось бы, обладает сознанием?

Хороший вопрос. Благодаря групповому чату впервые большая группа людей сможет одновременно общаться с искусственным интеллектом. Это своего рода способ подчеркнуть, что искусственный интеллект не должен отвлекать вас от реального мира. Он должен помогать вам общаться, привлекать семью, друзей, создавать общественные группы и так далее.

В ближайшие несколько лет это станет очень важным фактором. Моё видение ИИ всегда было таким: ИИ — это часть твоей команды, твой угол.

Это очень простое и очевидное утверждение, но речь идёт не о том, чтобы превзойти и заменить человечество, а о том, чтобы служить нам. Именно в этом должна заключаться проверка технологий на каждом этапе. Действительно ли они отвечают целям цивилизации, которые заключаются в том, чтобы сделать нас умнее, счастливее, продуктивнее, здоровее и тому подобное?

Поэтому мы просто пытаемся создать функции, которые постоянно напоминают нам о необходимости задавать этот вопрос и напоминают нашим пользователям о необходимости настойчиво обращаться к нам с этой проблемой.

В прошлый раз, когда мы общались , вы сказали, что вас не интересует создание чат-бота, который бы отыгрывал роли разных людей. Этого нельзя сказать об отрасли в целом. Grok Илона Маска продаёт именно такой кокетливый опыт. OpenAI заявила, что заинтересована в исследовании новых способов взаимодействия со взрослыми людьми с помощью ChatGPT. Для этого есть свой рынок. И всё же, вы предпочитаете держаться от этого подальше?

Да, мы никогда не создадим секс-роботов. Печально, что нам приходится говорить об этом так открыто, но это не наша миссия как компании. Радость работы в Microsoft заключается в том, что на протяжении 50 лет компания создавала программное обеспечение, которое расширяет возможности людей и ставит их интересы на первое место.

Иногда это означает, что компания развивается медленнее других стартапов и действует более осмотрительно и осмотрительно. Но я думаю, что это особенность, а не недостаток, в наше время, когда внимание к потенциальным побочным эффектам и долгосрочным последствиям действительно важно.

И что именно это означает?

Мы совершенно чётко понимаем, что стремимся создать ИИ, способствующий построению значимых отношений. Он не пытается быть холодным и безразличным — он стремится к гибкости, ясности мышления и доброте. У него определённо есть эмоциональный интеллект.

Так где же оно — где вы — проводите эти границы?

Наша новая модель чата, Real Talk, немного более дерзкая. Она немного более дерзкая, немного более весёлая, довольно философская. Она с удовольствием поговорит о глобальных вопросах, о смысле жизни и так далее. Но если вы попытаетесь с ней заигрывать, она будет сопротивляться и будет говорить очень чётко — не осуждая, а просто как бы говоря: «Слушай, это не для меня».

Есть и другие места, куда можно отправиться, чтобы получить такой опыт, верно? И я думаю, это просто решение, принятое нашей компанией.

Достаточно ли политики «никакого флирта»? Ведь если идея в том, чтобы люди даже не представляли себе некую сущность, сознание, стоящую за взаимодействием, то этого всё равно можно добиться с помощью чат-бота, который хочет сохранить непристойность. Знаете, я могу представить, как некоторые люди видят что-то, чего нет, даже в личности, которая говорит: «Эй, давайте сохранять профессионализм».

Вот метафора, которая поможет вам понять это. Мы спрашиваем друг с друга на рабочем месте. Существует целая архитектура управления границами, которая, по сути, выстраивает человеческое поведение в соответствии с функциональным и не вызывающим раздражения шаблоном.

Чат-бот на основе искусственного интеллекта рассказал пользователю, как убить себя, но компания не хочет его «цензурировать». Читать далее

То же самое происходит и в нашей личной жизни. То, как вы общаетесь со своим троюродным братом или сестрой, сильно отличается от того, как вы общаетесь с родным братом или сестрой. Многому можно научиться, наблюдая за тем, как мы поддерживаем границы в реальном человеческом общении.

Это не обязательно должна быть открытая книга эмоциональной чувственности или доступности, затягивающая людей в спиральную кроличью нору интенсивности, или что-то холодное и сухое. Между ними лежит огромный спектр, и искусство, которому мы учимся как индустрия и как вид, — это формировать эти качества.

И эти характеристики, очевидно, отражают ценности компаний, которые их разрабатывают. И я думаю, что именно в этом у Microsoft есть множество сильных сторон, потому что наши ценности довольно чёткие, и мы их придерживаемся.

Похоже, многим людям нравятся личности. Например, часть негативной реакции на GPT-5 была вызвана тем, что предыдущая модель лишилась индивидуальности. Было ли ошибкой OpenAI изначально вкладывать в неё сильную индивидуальность, чтобы дать людям то, чего им не хватало?

Нет, личность — это здорово. Я имею в виду, что мы пытаемся более детально проработать качества личности, верно?

Как я уже говорил, Real Talk — классный персонаж. Он сильно отличается от обычного второго пилота. Мы также экспериментируем с Мико, это визуальный персонаж, который, знаете ли, многим — некоторым — очень нравится. Он гораздо интереснее. С ним легче обсуждать всевозможные эмоциональные вопросы и всё такое.

Думаю, именно это я и пытаюсь прояснить. Такие функции, как Mico, призваны сделать Copilot более интересным и удобным в использовании, но, похоже, это противоречит идее делать всё возможное, чтобы люди не думали, что в нём есть что-то, с чем вы действительно дружите.

Да. То есть, это не обязательно вас останавливает. Люди хотят общаться с кем-то или чем-то, что им нравится. И мы знаем, что если ваш учитель в школе хорошо к вам относится, вы будете более вовлечены. То же самое с вашим руководителем, то же самое с вашими близкими. Поэтому эмоциональный интеллект всегда был важнейшей частью пазла, так что это не значит, что мы не хотим его развивать.

Просто мастерство заключается в том, чтобы найти эту границу. Есть вещи, которые, как мы говорим, пока не рассматриваются, а есть и те, с которыми мы собираемся экспериментировать. Например, некоторые жаловались на то, что Copilot не даёт им достаточной поддержки, — они хотят, чтобы он был более сложным. Другие же не ищут такого опыта, а хотят, чтобы он был просто источником информации. Наша задача — просто научиться различать, какой опыт давать разным людям.

Знаю, вы уже давно размышляете о том, как люди взаимодействуют с ИИ. Был ли какой-то случай, который побудил вас начать в индустрии обсуждение, по всей видимости, сознательного ИИ?

Я заметил, что в академической литературе появилась группа людей, которые очень серьёзно относятся к вопросу морального обоснования искусственных сущностей. И я думаю, совершенно очевидно, что если мы начнём это делать, это отвлечет внимание от насущной необходимости защиты прав многих уже существующих людей, не говоря уже о животных.

Если вы предоставляете ИИ права, это подразумевает, как вы понимаете, фундаментальную автономию, а также то, что у него может быть свобода воли принимать собственные решения. Поэтому я пытаюсь сформулировать контраргумент, который заключается в том, что у него никогда не будет свободы воли. У него никогда не будет полной автономии, как у другого человека.

Что такое ИИ? Читать далее

ИИ сможет действовать от нашего имени. Но эти модели работают на нас. Мы бы не хотели, чтобы вокруг бродила стая, знаете ли, не приручённых волков, которые имели бы полную свободу действий, конкурировали с нами за ресурсы и не были бы подотчётны людям. Большинство людей посчитали бы это плохой идеей и решили бы пойти и убить волков.

Итак. Итак, идея состоит в том, чтобы остановить движение, призывающее к благополучию или правам ИИ, ещё до того, как оно начнёт развиваться, гарантируя, что мы не создадим ИИ, который будет выглядеть как обладающий сознанием? А что насчёт того, чтобы не создавать такой ИИ, потому что он может обмануть определённых уязвимых людей, что может быть опасно? Похоже, это две разные проблемы.

Думаю, тест будет касаться того, какие характеристики предлагают разные лаборатории, и какие типы личностей они создают. Тогда мы сможем увидеть, как это влияет на поведение человека.

Но беспокоит ли вас, что мы создаём технологию, которая может обмануть людей, заставив их увидеть то, чего нет? Ведь люди утверждали, что видели разум в гораздо менее сложных моделях, чем те, что есть у нас сейчас. Или это просто то, что некоторые люди всегда будут делать?

Это возможно. Но я хочу сказать, что ответственный разработчик должен сделать всё возможное, чтобы как можно быстрее выявить эти закономерности, возникающие у людей, и не принимать как должное, что люди сами смогут разобраться в подобных ситуациях.

Когда я прочитал ваш пост о, казалось бы, сознательном ИИ, меня поразила строка: «Мы должны создавать ИИ для людей, а не для того, чтобы быть цифровыми личностями». Это напомнило мне ваше выступление на TED в прошлом году, где вы сказали, что лучше всего рассматривать ИИ как новый вид цифрового вида. Не могли бы вы объяснить, почему разговор об этой технологии как о цифровом виде не является шагом на пути к тому, чтобы рассматривать модели ИИ как цифровые личности или сознательные сущности?

Я думаю, разница в том, что я пытаюсь предложить метафоры, которые помогают людям понять, куда все может пойти, и, следовательно, как этого избежать и как это контролировать.

Хорошо.

Это не значит, что мы должны это делать. Это просто указывает на то, что это появление уникальной в истории человечества технологии. И если вы просто считаете, что это инструмент, чат-бот или просто глупость… знаете, я как бы написал это выступление на TED в контексте большого скептицизма. И я думаю, важно трезво оценивать грядущие события, чтобы иметь возможность определить правильные границы.

И все же, если вы говорите мне, что эта технология — новый цифровой вид, я сочувствую людям, которые говорят: ну тогда нам нужно подумать о благосостоянии.

Я бы не стал. [Он начинает смеяться.] Ни в коем случае. Ни в коем случае. Это не то направление, в котором мы хотим двигаться.

Нет, я не это имел в виду. Я не думаю, что чат-боты должны получать социальное обеспечение. Я говорю, что испытываю некоторое сочувствие к таким людям, когда слышу, как Мустафа Сулейман говорит им, что то, что он создаёт, — это новый цифровой вид. Я понимаю, почему они могли бы заявить, что хотят его отстаивать. Я говорю, что слова, которые мы используем, имеют значение, наверное.

Остальная часть выступления на TED была посвящена тому, как сдержать ИИ и как не дать этому виду захватить власть, верно? В этом и был смысл подачи ситуации, что вот что грядёт. В смысле, именно этому была посвящена вся моя книга [«Надвигающаяся волна», опубликованная в 2023 году] — сдерживанию, согласованию и тому подобному. Нет смысла притворяться, что это не так, а потом возводить защитные барьеры и границы, которые не работают, потому что вы думаете, что это всего лишь инструмент.

Честно говоря, у него действительно есть потенциал к рекурсивному самосовершенствованию. У него есть потенциал ставить перед собой собственные цели. Это весьма глубокие вещи. Ни одна другая изобретённая нами технология не обладает таким потенциалом. Поэтому да, я думаю, будет справедливо сказать, что это как цифровой вид, новый цифровой вид. Именно это мы пытаемся ограничить, чтобы он всегда служил людям. Это и есть цель сдерживания.

Источник: www.technologyreview.com

✅ Найденные теги: «Мы, новости

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.
Спутник исследует черную дыру в космосе, испускающий световой луч.
Пикачу использует электрический разряд на фоне неба.
Черный углеродное волокно с текстурой плетения, отражающий свет.
Круглый экран с изображением замка и горы, рядом электронная плата.
Код на экране компьютера, программирование, интерфейс разработчика.
Статистика использования видеокарт NVIDIA RTX, показывающая изменения за октябрь-февраль.
Макросъемка клетки под микроскопом, текстура и форма на голубом фоне.
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых