Изображение человека на фоне с надписью "AI".

Сэм Альтман отреагировал на «подстрекательскую» статью в журнале New Yorker после нападения на его дом.

Содержание

c890024463733bd3027f6106b2cf85be
Источник изображения: Кайл Гриллот/Bloomberg / Getty Images

В пятницу вечером генеральный директор OpenAI Сэм Альтман опубликовал в своем блоге сообщение, в котором ответил как на предполагаемое нападение на его дом, так и на подробную статью в журнале New Yorker, в которой поднимались вопросы о его надежности.

Рано утром в пятницу кто-то, предположительно, бросил коктейль Молотова в дом Альтмана в Сан-Франциско. В результате инцидента никто не пострадал, а подозреваемый был позже арестован в штаб-квартире OpenAI, где, по данным полиции Сан-Франциско, он угрожал поджечь здание.

Хотя полиция публично не назвала имя подозреваемого, Альтман отметил, что инцидент произошел через несколько дней после публикации «подстрекательской статьи» о нем. Он сказал, что кто-то предположил, что публикация статьи «во время сильной тревоги по поводу ИИ» может сделать ситуацию «более опасной» для него.

«Я отмахнулся от этого, — сказал Альтман. — Теперь я не сплю посреди ночи, я зол и думаю, что недооценил силу слов и историй».

Речь идет о объемном журналистском расследовании, написанном Ронаном Фарроу (получившим Пулитцеровскую премию за репортаж, раскрывший многие обвинения в сексуальном насилии в отношении Харви Вайнштейна) и Эндрю Маранцем (автором многочисленных работ о технологиях и политике).

Фарроу и Маранц заявили, что в ходе интервью с более чем 100 людьми, знакомыми с деловой практикой Альтмана, большинство описали его как человека с «неукротимой волей к власти, которая выделяет его даже среди промышленников, чьи имена красуются на космических кораблях».

Как и другие журналисты, писавшие об Альтмане, Фарроу и Маранц предположили, что многие источники ставили под сомнение его надежность, а один анонимный член совета директоров заявил, что он сочетает в себе «сильное желание угодить людям, понравиться в любом взаимодействии» с «социопатической беззаботностью по отношению к последствиям, которые могут возникнуть в результате обмана».

Мероприятие Techcrunch

Встретьтесь со своим будущим инвестором или стартапом из портфеля на Disrupt.

Ваш следующий раунд финансирования. Ваш следующий сотрудник. Ваша следующая возможность прорыва. Найдите это на TechCrunch Disrupt 2026, где более 10 000 основателей, инвесторов и лидеров технологической отрасли соберутся на три дня, чтобы принять участие в более чем 250 практических сессиях, установить полезные контакты и познакомиться с инновациями, определяющими рынок. Зарегистрируйтесь сейчас и сэкономьте до 410 долларов.

Встретьтесь со своим будущим инвестором или стартапом из портфеля на Disrupt.

Ваш следующий раунд финансирования. Ваш следующий сотрудник. Ваша следующая возможность прорыва. Найдите это на TechCrunch Disrupt 2026, где более 10 000 основателей, инвесторов и лидеров технологической отрасли соберутся на три дня, чтобы принять участие в более чем 250 практических сессиях, установить полезные контакты и познакомиться с инновациями, определяющими рынок. Зарегистрируйтесь сейчас и сэкономьте до 410 долларов.

Сан-Франциско, Калифорния | 13-15 октября 2026 г. ЗАРЕГИСТРИРУЙТЕСЬ СЕЙЧАС

В своем ответе Альтман сказал, что, оглядываясь назад, он может выделить «многое, чем я горжусь, и множество ошибок».

Среди ошибок, по его словам, – склонность к «избеганию конфликтов», которая, как он отметил, «причинила мне и OpenAI много боли».

«Я не горжусь тем, как плохо себя вел в конфликте с предыдущим советом директоров, который привел к огромным проблемам для компании», — сказал Альтман, предположительно имея в виду свое отстранение и быстрое восстановление в должности генерального директора OpenAI в 2023 году. «Я совершил много других ошибок на протяжении безумной траектории развития OpenAI; я — несовершенный человек в центре исключительно сложной ситуации, пытающийся каждый год становиться немного лучше, всегда работающий на благо миссии».

Он добавил: «Я сожалею о людях, которых обидел, и жалею, что не усвоил урок быстрее».

Альтман также признал, что между компаниями в нашей сфере, похоже, «слишком много шекспировской драмы», что он объяснил «динамикой „кольца власти“», которая «заставляет людей совершать безумные поступки».

Конечно, правильный способ справиться с кольцом власти — это уничтожить его, поэтому Альтман добавил: «Я не имею в виду, что [искусственный общий интеллект] — это само кольцо, а скорее, всеобъемлющую философию „контроля над ИИ“». Предложенное им решение заключается в том, чтобы «ориентироваться на широкое распространение технологии среди людей, и чтобы кольцо не принадлежало никому».

В заключение Альтман сказал, что приветствует «доброжелательную критику и дискуссии», и подтвердил свою убежденность в том, что «технологический прогресс может сделать будущее невероятно хорошим для вашей и моей семьи».

«Пока мы ведем эту дискуссию, нам следует снизить накал риторики и тактики и постараться, чтобы взрывов в домах было меньше, как в переносном, так и в буквальном смысле», — сказал он.

Источник: techcrunch.com

✅ Найденные теги: New Yorker, Нападение, новости, статья, Сэм, Сэм Альтман

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

ideipro logotyp
Изображение процессора с меткой AI, окружённого миниатюрным городом, освещённым неоновыми огнями.
Аудио волны и значки замков на фоне цифровой безопасности и защиты данных.
Офис Минцифры России: рабочие места и ряд кресел, логотип на стене.
Ледяной кристалл на розовом фоне, крупный план.
Адаптер PCIe позволяет подключить к PCI Express x16 и видеокарту, и два накопителя M.2
Нам срочно необходимо подготовиться к тому, что квантовые компьютеры смогут взламывать шифрование.
Руководство по анализу выживаемости с использованием Python: применение моделей «время до события» для прогнозирования продолжительности жизни клиента.
YouTube Premium и YouTube Music становятся дороже.
Image Not Found
ideipro logotyp

Мифы Anthropic приведут к переосмыслению кибербезопасности — только не к тому, о котором вы думаете.

Новая модель ИИ воспринимается — и вызывает опасения — как супероружие хакеров. Эксперты говорят, что её появление — это тревожный сигнал для разработчиков, которые долгое время игнорировали вопросы безопасности. Источник: www.wired.com ✅ Найденные теги: Anthropic, Кибербезопасность, Мифы,…

Апр 12, 2026
Изображение процессора с меткой AI, окружённого миниатюрным городом, освещённым неоновыми огнями.

Оценка этических аспектов автономных систем

Исследователи из Массачусетского технологического института разработали систему тестирования, которая позволяет выявлять ситуации, когда системы поддержки принятия решений на основе искусственного интеллекта несправедливо относятся к людям и сообществам. В таких крупных системах, как энергосистема, оценка этического соответствия рекомендаций…

Апр 12, 2026
Аудио волны и значки замков на фоне цифровой безопасности и защиты данных.

К получению доказуемо конфиденциальной информации об использовании ИИ

Мы подробно описываем, как конфиденциальная технология федеративной аналитики используется для понимания особенностей генеративного ИИ на устройстве, обеспечивая высокую прозрачность в обработке и анализе пользовательских данных. Быстрые ссылки Бумага GitHub Делиться Скопировать ссылку × Генеративный ИИ (GenAI) обеспечивает…

Апр 12, 2026
Офис Минцифры России: рабочие места и ряд кресел, логотип на стене.

Источник отрасли: IT-компании начали приостанавливать проекты после совещания в Минцифры

По информации телеграм-канала «Время госзакупок», источник в отрасли сообщил, что IT-компании начали приостанавливать некоторые свои проекты после совещания в Минцифры. Одной из ключевых проблем стало использование специалистов уровня senior, находящихся за рубежом, что может замедлить переход на…

Апр 12, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых