Image

Кремниевая долина пугает сторонников безопасности ИИ

f7ce3182c826f182901855a246811bb5
Источники изображений: piranka (открывается в новом окне) / Getty Images

Лидеры Кремниевой долины, включая Дэвида Сакса, главного специалиста по искусственному интеллекту и криптовалютам в Белом доме, и Джейсона Квона, директора по стратегии OpenAI, на этой неделе вызвали переполох в интернете своими комментариями о группах, выступающих за безопасность ИИ. В отдельных случаях они утверждали, что некоторые сторонники безопасности ИИ не так добродетельны, как кажутся, и действуют либо в собственных интересах, либо в интересах закулисных кукловодов-миллиардеров.

Группы по безопасности ИИ, с которыми общался TechCrunch, утверждают, что обвинения Сакса и OpenAI — это очередная попытка Кремниевой долины запугать своих критиков, но, безусловно, не первая. В 2024 году некоторые венчурные компании распространили слухи о том, что законопроект о безопасности ИИ в Калифорнии (SB 1047) приведёт к тюремному заключению основателей стартапов. Институт Брукингса назвал этот слух одним из множества «ложных представлений» о законопроекте, но губернатор Гэвин Ньюсом в конечном итоге всё равно наложил на него вето.

Независимо от того, намеревались ли Сакс и OpenAI запугать критиков, их действия достаточно напугали нескольких защитников безопасности ИИ. Многие руководители некоммерческих организаций, с которыми TechCrunch связался на прошлой неделе, попросили дать им интервью на условиях анонимности, чтобы защитить свои организации от преследований.

Эта полемика подчёркивает растущее противоречие в Кремниевой долине между ответственным развитием ИИ и его превращением в массовый потребительский продукт. Эту тему мы с моими коллегами Кирстен Коросек и Энтони Ха обсуждаем в подкасте Equity на этой неделе. Мы также подробно рассмотрим новый закон о безопасности ИИ, принятый в Калифорнии для регулирования чат-ботов, и подход OpenAI к эротике в ChatGPT.

Во вторник Сакс написал пост на X, в котором утверждал, что Anthropic, которая выражала обеспокоенность по поводу способности ИИ способствовать росту безработицы, кибератакам и катастрофическому ущербу для общества, просто нагнетает страх, чтобы добиться принятия законов, которые будут выгодны ей самой и заставят мелкие стартапы лишиться бумажной работы. Anthropic стала единственной крупной лабораторией ИИ, поддержавшей законопроект Сената Калифорнии 53 (SB 53), устанавливающий требования к отчетности по безопасности для крупных компаний, работающих в сфере ИИ. Этот законопроект был подписан в прошлом месяце.

Сакс ответил на вирусное эссе соучредителя Anthropic Джека Кларка о его страхах перед искусственным интеллектом. Кларк выступил с этим эссе на конференции Curve по безопасности искусственного интеллекта в Беркли несколькими неделями ранее. Сидя в зале, я, конечно, чувствовал, что это искреннее изложение опасений технолога по поводу его продуктов, но Сакс так не считал.

Сакс заявил, что Anthropic реализует «сложную стратегию захвата регулирующих органов», хотя стоит отметить, что по-настоящему сложная стратегия, вероятно, не подразумевает превращение федерального правительства во врага. В следующем посте на X Сакс отметил, что Anthropic «последовательно позиционирует себя как противника администрации Трампа».

Также на этой неделе директор по стратегии OpenAI Джейсон Квон написал пост в X, в котором объяснил, почему компания рассылает повестки некоммерческим организациям, занимающимся безопасностью ИИ, таким как Encode, некоммерческая организация, выступающая за ответственную политику в области ИИ. (Повестка — это судебное распоряжение, требующее предоставления документов или свидетельских показаний.) Квон заявил, что после того, как Илон Маск подал в суд на OpenAI из-за опасений, что создатель ChatGPT отклонился от своей некоммерческой миссии, OpenAI сочла подозрительным, что несколько организаций также выступили против её реструктуризации. Encode подала письменное заключение в поддержку иска Маска, а другие некоммерческие организации публично выступили против реструктуризации OpenAI.

«Это подняло вопросы прозрачности относительно того, кто их финансирует и существовала ли какая-либо координация», — сказал Квон.

На этой неделе NBC News сообщила, что OpenAI направила Encode и шести другим некоммерческим организациям, критиковавшим компанию, повестки с требованием предоставить информацию, касающуюся двух главных оппонентов OpenAI — Маска и генерального директора Meta Марка Цукерберга. OpenAI также запросила у Encode информацию, касающуюся поддержки законопроекта SB 53.

Один из видных специалистов по безопасности ИИ рассказал TechCrunch о растущем расколе между командой OpenAI по взаимодействию с государственными органами и исследовательской организацией. Хотя исследователи безопасности OpenAI часто публикуют отчёты, раскрывающие риски систем ИИ, отдел политики OpenAI выступил против законопроекта SB 53, заявив, что предпочитает единые правила на федеральном уровне.

Руководитель отдела согласования миссий OpenAI Джошуа Ачиам на этой неделе в своем сообщении на платформе X высказался о том, что его компания рассылает повестки некоммерческим организациям.

«Хотя это, возможно, и поставит под угрозу всю мою карьеру, я скажу: это не выглядит чем-то хорошим», — сказал Ахиам.

Брендан Штайнхаузер, генеральный директор некоммерческой организации «Альянс за безопасный ИИ», занимающейся вопросами безопасности ИИ (которую OpenAI не вызывала в суд), заявил TechCrunch, что OpenAI, похоже, убеждена, что её критики являются частью заговора, возглавляемого Маском. Однако он утверждает, что это не так, и что большая часть сообщества специалистов по безопасности ИИ весьма критически относится к мерам безопасности xAI, или даже к их отсутствию.

«Со стороны OpenAI это делается для того, чтобы заставить критиков замолчать, запугать их и отговорить другие некоммерческие организации от подобных действий», — сказал Штайнхаузер. «Что касается Сакса, то, думаю, он обеспокоен ростом [движения за безопасность ИИ], и люди хотят привлечь эти компании к ответственности».

Шрирам Кришнан, старший советник Белого дома по вопросам политики в области ИИ и бывший генеральный партнёр A16Z, на этой неделе присоединился к обсуждению, опубликовав в социальных сетях собственный пост, в котором назвал сторонников безопасности ИИ оторванными от реальности. Он призвал организации, занимающиеся безопасностью ИИ, общаться с «людьми из реального мира, которые используют, продают и внедряют ИИ в своих домах и организациях».

Недавнее исследование центра Pew показало, что примерно половина американцев скорее обеспокоены, чем воодушевлены ИИ, но неясно, что именно их беспокоит. Другое недавнее исследование было более подробным и показало, что американских избирателей больше волнуют потеря рабочих мест и дипфейки, чем катастрофические риски, связанные с ИИ, на которых в основном сосредоточено движение за безопасность ИИ.

Решение этих проблем безопасности может привести к снижению быстрого роста индустрии ИИ — компромисс, который беспокоит многих в Кремниевой долине. Учитывая, что инвестиции в ИИ поддерживают значительную часть экономики Америки, опасения по поводу чрезмерного регулирования вполне понятны.

Однако после многих лет нерегулируемого развития искусственного интеллекта, движение за безопасность искусственного интеллекта, похоже, набирает реальный импульс к 2026 году. Попытки Кремниевой долины дать отпор группам, ориентированным на безопасность, могут быть признаком того, что эти усилия эффективны.

Источник: techcrunch.com

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.
dummy-img
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
dummy-img
dummy-img
Взаимодействие человека и машины погружается под воду.
Взаимодействие человека и машины погружается под воду.
Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy
Image Not Found
Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Вкратце Опубликовано: Изображение предоставлено: Thos Robinson/Getty Images для The New York Times (откроется в новом окне) Джули Борт Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.…

Апр 21, 2026
dummy-img

Как почистить виниловые пластинки (2026): пылесос, ультразвук, чистящий раствор, щетка.

Эти щелчки и треск недопустимы. Приведите свою музыку в порядок с помощью этого удобного руководства. Источник: www.wired.com

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых