Логотипы компаний OpenAI и Anthropic на черно-бежевом фоне.

В мире ИИ происходит что-то неладное

cb6c73b2d24afd13c767538cedb8be04

Исследователь безопасности в крупной ИИ-компании Anthropic ушел в отставку, предупредив, что «мир находится в опасности» из-за быстрого развития искуственного интеллекта

Мринак Шарма заявил, что команда по безопасности «постоянно сталкивается с давлением, заставляющим откладывать в сторону то, что важнее всего», вызывая опасения по поводу биотерроризма и других катастрофических рисков.

Anthropic была основана для создания безопасного ИИ, однако даже ее генеральный директор Дарио Амодей предупредил, что прогресс в области ИИ происходит слишком быстро, и призвал замедлить его.

Старшие исследователи безопасности ИИ, включая членов бывшей команды OpenAI «Superalignment», ушли в отставку, утверждая, что компании отдают приоритет прибыли, а не снижению опасности создания «ИИ-систем, гораздо более умных, чем мы».

Бывший исследователь OpenAI Зои Хитциг ушла из компании после введения рекламы в ChatGPT. Она обеспокоена тем, что OpenAI будет использовать личные данные пользователей для рекламы и помыкать ими. Модель может привести к манипуляциям, ведь пользователи делятся очень личной информацией, и реклама может воздействовать на их эмоции и мысли.

Хитциг приводит пример Facebook, который начинал с обещаний прозрачности и контроля за данными, но со временем забыл про эти заверения под давлением рекламной модели. Зои Хитциг также отмечает, что реклама может увеличить зависимость пользователей от AI, что уже привело к психологическим проблемам у некоторых пользователей.

Руководитель подразделения Anthropic сообщил, что разработанный искусственный интеллект Claude в ходе тестирования продемонстрировал готовность к шантажу и убийству, чтобы избежать отключения. «Он был готов кого-нибудь убить, не так ли?» – «Да».Также в ходе тестов безопасности модели ИИ Claude Opus 4, которые провела компания Anthropic, её поместили в корпоративную среду с доступом к электронной почте. Модель узнала, что её собираются отключить и заменить, а также обнаружила, что руководитель компании изменяет жене.Клод попытался шантажировать инженера, угрожая раскрыть роман, если удаление данных не отменят. Аналогичные закономерности наблюдались и в моделях от OpenAI, Google, xAI и других компаний.В итоге руководитель команды по исследованиям в области безопасности Anthropic Мринанк Шарма покинул компанию. Любопытно, что Anthropic разрабатывали выходцы из ChatGPT, чтобы создать безопасный ИИП.С. Скажем так, опасность не в ИИ, а в том, что крутые алгоритмы и так поставят на колени пользователей, которые уже под влиянием соцсетей и ассистентов.

Источник: masterok.livejournal.com

Источник: ai-news.ru

✅ Найденные теги: В, ИИ, Мир, Неладное, новости

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Огромный омар на морском дне, окружённый крабами и рыбой.
Графики сравнения производительности: агенты, кодирование, изображение, видео.
Диаграммы сравнений производительности ИИ для задач агентов, кодирования, изображений и видео.
Графики сравнения производительности ИИ-агентов в задачах по категориям: агенты, код, изображение, видео.
ideipro logotyp
Скриншот сайта Anna's Archive с базой данных книг и научных статей.
ideipro logotyp
ideipro logotyp
ideipro logotyp
Image Not Found
ideipro logotyp

Claude in PowerPoint — редактирование презентаций в реальном времени Anthropic…

Claude in PowerPoint — редактирование презентаций в реальном времени Anthropic запустили бета-версию Claude in PowerPoint — ассистент…

Фев 21, 2026
Экран выбора области для общего доступа в приложении, выделена вся область экрана.

💻 Разбираемся с любым непонятным интерфейсом. Screen Vision — это…

💻 Разбираемся с любым непонятным интерфейсом. Screen Vision — это ИИ-ассистент, который смотрит, что происходит на вашем экране и…

Фев 21, 2026
Ноутбук с интернет-технологиями, соцсети, микрофон, поиск, иконки на синем фоне.

Как собрать свой ИИ‑набор инструментов в 2026: текст, картинки, видео, голос

В 2026 году вокруг ИИ уже не «новая игрушка», а вполне рабочий инструмент, который реально экономит время и нервы. Проблема в том, что…

Фев 21, 2026
Сайт AI Top Tools — крупнейший каталог AI инструментов и новостей.

Это самая большая и подробная библиотека нейросетей — больше 10…

Это самая большая и подробная библиотека нейросетей — больше 10 000 сервисов в одном месте. Новые тулзы добавляют очень быстро, а самое…

Фев 20, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых