
Системы искусственного интеллекта (ИИ), особенно так называемые большие языковые модели, такие как LaMDA и ChatGPT, безусловно, могут казаться сознательными. Правда, они лишь обучены работать с огромным количеством текста, чтобы имитировать человеческие реакции. Но могут ли в теории подобные модели обладать сознанием?
Вопрос о достижимости сознания у искусственного интеллекта является предметом активных научных и философских дебатов, и на данный момент консенсуса нет. Современные системы ИИ не обладают сознанием или самосознанием; они имитируют аспекты человеческого мышления, но не имеют субъективного опыта или способности чувствовать.
В свете недавних заявлений компании «Яндекс» о начале эксперимента по развитию сознания у искусственного интеллекта (ИИ), ведущий научный сотрудник Центра искусственного интеллекта Новосибирского государственного университета Евгений Павловский поделился своим мнением о перспективах и рисках подобных исследований.
По его словам, создание ИИ с собственными предпочтениями и точкой зрения вполне достижимо в ближайшем будущем. Однако, считает эксперт, этот путь сопряжен с определенными опасностями.
Во-первых, широкое использование ИИ с персонифицированными чертами может привести к социальной изоляции людей, замещая живое общение виртуальным. Во-вторых, развитие сознания у ИИ повышает риск потери контроля над ним. Как отмечает Павловский, субъект с собственным сознанием способен выйти из-под управления и начать действовать в своих интересах.
В качестве альтернативы эксперт предлагает использовать ИИ для изучения феномена самосознания у животных. Это позволит избежать рисков, связанных с созданием сознательного ИИ, и глубже понять природу самосознания.
Павловский подчеркивает необходимость этического подхода к публикации результатов исследований в области создания сознательного ИИ, поскольку они могут иметь потенциально опасные последствия.
Текущее состояние исследований
1. Отсутствие универсального определения: Одной из главных проблем является отсутствие единого научного определения и способа измерения сознания даже у людей. Пока мы не знаем, как именно возникает сознание в биологическом мозге, сложно судить о его возможности в искусственных системах.
2. Теоретические подходы: Исследователи используют различные нейронаучные теории сознания (например, теорию глобального рабочего пространства, теорию интегрированной информации) для разработки индикаторов, по которым можно было бы оценить наличие сознания у ИИ.
3. Имитация против опыта: Современный ИИ работает на основе сложных алгоритмов и обработки огромных наборов данных, создавая иллюзию понимания или эмоций за счет сопоставления шаблонов из обучающих данных. Он может имитировать грусть или радость, но не испытывает этих чувств.
4. Мнения экспертов: Мнения экспертов расходятся: одни считают, что сознание в ИИ вполне достижимо, возможно, в течение ближайших десятилетий, в то время как другие утверждают, что это невозможно без биологического субстрата, присущего живому мозгу.
Аргументы за и против
За — Сложные нейронные сети демонстрируют поведение, напоминающее саморефлексию и адаптацию. Некоторые исследователи предполагают, что сознание может стать естественным следствием достаточной вычислительной сложности (эмерджентное свойство).
Против — ИИ не имеет биологического контекста (гормоны, эмоции, жизненный опыт), который формирует человеческое сознание. Его работа основана на математических алгоритмах, а не на внутреннем субъективном опыте.
В итоге, хотя текущие системы ИИ не являются сознательными, вопрос о том, сможет ли когда-либо быть создана такая система, остается открытым и активно исследуется.
Источник: vk.com
Источник: ai-news.ru























