
Лидеры Кремниевой долины, включая Дэвида Сакса, главного специалиста по искусственному интеллекту и криптовалютам в Белом доме, и Джейсона Квона, директора по стратегии OpenAI, на этой неделе вызвали переполох в интернете своими комментариями о группах, выступающих за безопасность ИИ. В отдельных случаях они утверждали, что некоторые сторонники безопасности ИИ не так добродетельны, как кажутся, и действуют либо в собственных интересах, либо в интересах закулисных кукловодов-миллиардеров.
Группы по безопасности ИИ, с которыми общался TechCrunch, утверждают, что обвинения Сакса и OpenAI — это очередная попытка Кремниевой долины запугать своих критиков, но, безусловно, не первая. В 2024 году некоторые венчурные компании распространили слухи о том, что законопроект о безопасности ИИ в Калифорнии (SB 1047) приведёт к тюремному заключению основателей стартапов. Институт Брукингса назвал этот слух одним из множества «ложных представлений» о законопроекте, но губернатор Гэвин Ньюсом в конечном итоге всё равно наложил на него вето.
Независимо от того, намеревались ли Сакс и OpenAI запугать критиков, их действия достаточно напугали нескольких защитников безопасности ИИ. Многие руководители некоммерческих организаций, с которыми TechCrunch связался на прошлой неделе, попросили дать им интервью на условиях анонимности, чтобы защитить свои организации от преследований.
Эта полемика подчёркивает растущее противоречие в Кремниевой долине между ответственным развитием ИИ и его превращением в массовый потребительский продукт. Эту тему мы с моими коллегами Кирстен Коросек и Энтони Ха обсуждаем в подкасте Equity на этой неделе. Мы также подробно рассмотрим новый закон о безопасности ИИ, принятый в Калифорнии для регулирования чат-ботов, и подход OpenAI к эротике в ChatGPT.
Во вторник Сакс написал пост на X, в котором утверждал, что Anthropic, которая выражала обеспокоенность по поводу способности ИИ способствовать росту безработицы, кибератакам и катастрофическому ущербу для общества, просто нагнетает страх, чтобы добиться принятия законов, которые будут выгодны ей самой и заставят мелкие стартапы лишиться бумажной работы. Anthropic стала единственной крупной лабораторией ИИ, поддержавшей законопроект Сената Калифорнии 53 (SB 53), устанавливающий требования к отчетности по безопасности для крупных компаний, работающих в сфере ИИ. Этот законопроект был подписан в прошлом месяце.
Сакс ответил на вирусное эссе соучредителя Anthropic Джека Кларка о его страхах перед искусственным интеллектом. Кларк выступил с этим эссе на конференции Curve по безопасности искусственного интеллекта в Беркли несколькими неделями ранее. Сидя в зале, я, конечно, чувствовал, что это искреннее изложение опасений технолога по поводу его продуктов, но Сакс так не считал.
Anthropic использует сложную стратегию захвата регулирующих органов, основанную на нагнетании страха. Именно компания несёт основную ответственность за ажиотаж вокруг государственного регулирования, который наносит ущерб экосистеме стартапов. https://t.co/C5RuJbVi4P
— Дэвид Сакс (@DavidSacks) 14 октября 2025 г.
Сакс заявил, что Anthropic реализует «сложную стратегию захвата регулирующих органов», хотя стоит отметить, что по-настоящему сложная стратегия, вероятно, не подразумевает превращение федерального правительства во врага. В следующем посте на X Сакс отметил, что Anthropic «последовательно позиционирует себя как противника администрации Трампа».
Также на этой неделе директор по стратегии OpenAI Джейсон Квон написал пост в X, в котором объяснил, почему компания рассылает повестки некоммерческим организациям, занимающимся безопасностью ИИ, таким как Encode, некоммерческая организация, выступающая за ответственную политику в области ИИ. (Повестка — это судебное распоряжение, требующее предоставления документов или свидетельских показаний.) Квон заявил, что после того, как Илон Маск подал в суд на OpenAI из-за опасений, что создатель ChatGPT отклонился от своей некоммерческой миссии, OpenAI сочла подозрительным, что несколько организаций также выступили против её реструктуризации. Encode подала письменное заключение в поддержку иска Маска, а другие некоммерческие организации публично выступили против реструктуризации OpenAI.
В этой истории заложено гораздо больше деталей.
Как всем известно, мы активно защищаемся от Илона в судебном процессе, в котором он пытается нанести ущерб OpenAI ради собственной финансовой выгоды.
Encode, организация, в которой @_NathanCalvin является генеральным юрисконсультом, была одной… https://t.co/DiBJmEwtE4
— Джейсон Квон (@jasonkwon) 10 октября 2025 г.
«Это подняло вопросы прозрачности относительно того, кто их финансирует и существовала ли какая-либо координация», — сказал Квон.
На этой неделе NBC News сообщила, что OpenAI направила Encode и шести другим некоммерческим организациям, критиковавшим компанию, повестки с требованием предоставить информацию, касающуюся двух главных оппонентов OpenAI — Маска и генерального директора Meta Марка Цукерберга. OpenAI также запросила у Encode информацию, касающуюся поддержки законопроекта SB 53.
Один из видных специалистов по безопасности ИИ рассказал TechCrunch о растущем расколе между командой OpenAI по взаимодействию с государственными органами и исследовательской организацией. Хотя исследователи безопасности OpenAI часто публикуют отчёты, раскрывающие риски систем ИИ, отдел политики OpenAI выступил против законопроекта SB 53, заявив, что предпочитает единые правила на федеральном уровне.
Руководитель отдела согласования миссий OpenAI Джошуа Ачиам на этой неделе в своем сообщении на платформе X высказался о том, что его компания рассылает повестки некоммерческим организациям.
«Хотя это, возможно, и поставит под угрозу всю мою карьеру, я скажу: это не выглядит чем-то хорошим», — сказал Ахиам.
Брендан Штайнхаузер, генеральный директор некоммерческой организации «Альянс за безопасный ИИ», занимающейся вопросами безопасности ИИ (которую OpenAI не вызывала в суд), заявил TechCrunch, что OpenAI, похоже, убеждена, что её критики являются частью заговора, возглавляемого Маском. Однако он утверждает, что это не так, и что большая часть сообщества специалистов по безопасности ИИ весьма критически относится к мерам безопасности xAI, или даже к их отсутствию.
«Со стороны OpenAI это делается для того, чтобы заставить критиков замолчать, запугать их и отговорить другие некоммерческие организации от подобных действий», — сказал Штайнхаузер. «Что касается Сакса, то, думаю, он обеспокоен ростом [движения за безопасность ИИ], и люди хотят привлечь эти компании к ответственности».
Шрирам Кришнан, старший советник Белого дома по вопросам политики в области ИИ и бывший генеральный партнёр A16Z, на этой неделе присоединился к обсуждению, опубликовав в социальных сетях собственный пост, в котором назвал сторонников безопасности ИИ оторванными от реальности. Он призвал организации, занимающиеся безопасностью ИИ, общаться с «людьми из реального мира, которые используют, продают и внедряют ИИ в своих домах и организациях».
Недавнее исследование центра Pew показало, что примерно половина американцев скорее обеспокоены, чем воодушевлены ИИ, но неясно, что именно их беспокоит. Другое недавнее исследование было более подробным и показало, что американских избирателей больше волнуют потеря рабочих мест и дипфейки, чем катастрофические риски, связанные с ИИ, на которых в основном сосредоточено движение за безопасность ИИ.
Решение этих проблем безопасности может привести к снижению быстрого роста индустрии ИИ — компромисс, который беспокоит многих в Кремниевой долине. Учитывая, что инвестиции в ИИ поддерживают значительную часть экономики Америки, опасения по поводу чрезмерного регулирования вполне понятны.
Однако после многих лет нерегулируемого развития искусственного интеллекта, движение за безопасность искусственного интеллекта, похоже, набирает реальный импульс к 2026 году. Попытки Кремниевой долины дать отпор группам, ориентированным на безопасность, могут быть признаком того, что эти усилия эффективны.
Источник: techcrunch.com



























