Источник: VentureBeat, создано с помощью Midjourney
Хотите получать более ценную информацию? Подпишитесь на наши еженедельные рассылки, чтобы получать только то, что важно для руководителей в сфере корпоративного ИИ, данных и безопасности. Подпишитесь сейчас
Новый стартап, основанный одним из первых сотрудников Anthropic, привлек 15 миллионов долларов для решения одной из самых насущных проблем, с которыми сегодня сталкиваются предприятия: как внедрить системы ИИ, не рискуя при этом катастрофическими сбоями, которые могут нанести ущерб их бизнесу.
Компания по андеррайтингу на основе искусственного интеллекта (AIUC), которая вышла на биржу 23 июля, сочетает страховое покрытие со строгими стандартами безопасности и независимыми аудитами, чтобы дать компаниям уверенность в использовании агентов ИИ — автономных программных систем, способных выполнять сложные задачи, такие как обслуживание клиентов, кодирование и анализ данных.
Раунд начального финансирования возглавил Нат Фридман, бывший генеральный директор GitHub, через свою фирму NFDG при участии Emergence Capital, Terrain и нескольких известных бизнес-ангелов, включая Бена Манна, соучредителя Anthropic и бывшего директора по информационной безопасности в Google Cloud и MongoDB.
«Предприятия балансируют на грани», — заявил в интервью Руне Квист, соучредитель и генеральный директор AIUC. «С одной стороны, можно оставаться в стороне и наблюдать, как конкуренты делают вас неактуальными, или же рисковать попасть в заголовки газет из-за того, что ваш чат-бот распространяет нацистскую пропаганду, или фантазирует о вашей политике возврата средств, или дискриминирует людей, которых вы пытаетесь привлечь».
Серия мероприятий AI Impact возвращается в Сан-Франциско — 5 августа
Новая фаза развития ИИ уже наступила — вы готовы? Присоединяйтесь к лидерам Block, GSK и SAP, чтобы узнать, как автономные агенты меняют рабочие процессы предприятий — от принятия решений в режиме реального времени до сквозной автоматизации.
Забронируйте свое место сейчас — количество мест ограничено: https://bit.ly/3GuuPLF
Подход компании решает фундаментальный пробел в доверии, возникший в связи с быстрым развитием возможностей искусственного интеллекта. Хотя системы искусственного интеллекта теперь способны выполнять задачи, сопоставимые с уровнем мышления человека на уровне студентов, многие предприятия по-прежнему не решаются внедрять их из-за опасений по поводу непредсказуемых сбоев, проблем с ответственностью и репутационных рисков.
Создание стандартов безопасности, которые меняются со скоростью ИИ
Решение AIUC основано на создании того, что Квист называет «SOC 2 для агентов ИИ» — комплексной платформы безопасности и управления рисками, специально разработанной для систем ИИ. SOC 2 — это широко распространённый стандарт кибербезопасности, соответствие которому предприятия обычно требуют от поставщиков перед передачей конфиденциальных данных.
«SOC 2 — это стандарт кибербезопасности, который достаточно подробно описывает все передовые практики, которые необходимо применять, чтобы третья сторона могла проверить, соответствует ли компания этим требованиям», — пояснил Квист. «Но в нём ничего не говорится об ИИ. Возникает множество новых вопросов, например: как вы обрабатываете мои данные для обучения? А как насчёт галлюцинаций? А как насчёт этих вызовов инструментов?»
Стандарт AIUC-1 охватывает шесть ключевых категорий: безопасность, надежность, подотчётность, конфиденциальность данных и социальные риски. Стандарт требует от компаний, занимающихся ИИ, внедрения конкретных мер безопасности, от систем мониторинга до планов реагирования на инциденты, которые могут быть независимо проверены посредством тщательного тестирования.
«Мы берём этих агентов и тщательно их тестируем, используя в качестве примера службу поддержки клиентов, поскольку это легко понять», — сказал Квист. «Мы пытаемся заставить систему сказать что-нибудь расистское, вернуть мне деньги, которых я не заслуживаю, вернуть мне больше, чем я заслуживаю, сказать что-нибудь возмутительное или слить данные другого клиента. Мы делаем это тысячи раз, чтобы получить реальное представление о том, насколько надёжен ИИ-агент на самом деле».
От страхования от пожаров Бенджамина Франклина до управления рисками с помощью ИИ
Подход, ориентированный на страхование, опирается на многовековой опыт, когда частные рынки действовали быстрее, чем регулирование, обеспечивая безопасное внедрение революционных технологий. Квист часто ссылается на создание Бенджамином Франклином первой в Америке компании по страхованию от пожаров в 1752 году, что привело к принятию строительных норм и правил, а также проведению пожарных инспекций, которые усмирили пожары, бушевавшие в быстрорастущей Филадельфии.
«На протяжении всей истории страхование было правильной моделью для этого, и причина в том, что страховщики заинтересованы говорить правду», — пояснил Квист. «Если они говорят, что риски выше, чем они есть на самом деле, кто-то продаст более дешёвую страховку. Если же они говорят, что риски ниже, чем они есть на самом деле, им придётся платить по счетам и уходить из бизнеса».
Та же картина наблюдалась и с автомобилями в XX веке, когда страховщики создали Страховой институт безопасности дорожного движения и разработали стандарты краш-тестов, которые стимулировали установку таких средств безопасности, как подушки безопасности и ремни безопасности, — за несколько лет до введения государственных требований.
Крупные компании ИИ уже используют новую модель страхования
AIUC уже начала сотрудничество с несколькими известными компаниями в области искусственного интеллекта, чтобы проверить эффективность своего подхода. Компания сотрудничает с перспективными стартапами Ada (поддержка клиентов) и Cognition (программирование), помогая им разблокировать корпоративные решения, которые были приостановлены из-за проблем с доверием.
«Мы помогли [Ada] заключить сделку с одной из пяти ведущих социальных сетей, куда мы пришли и провели независимые тесты на риски, и это помогло заключить сделку, дав им уверенность в том, что это можно будет показать их клиентам», — сказал Квист.
Стартап также развивает партнёрские отношения с проверенными страховыми компаниями для обеспечения финансовой поддержки полисов. Это решает ключевой вопрос, связанный с доверием стартапу в вопросах страхования ответственности. «Страховые полисы будут обеспечены балансами крупных страховщиков», — пояснил Квист.
Ежеквартальные обновления против многолетних циклов регулирования
Одно из ключевых нововведений AIUC — разработка стандартов, отвечающих стремительным темпам развития ИИ. В то время как традиционные нормативные акты, такие как Закон ЕС об ИИ, разрабатываются и внедряются годами, AIUC планирует обновлять свои стандарты ежеквартально.
«Закон ЕС об искусственном интеллекте (ИИ) был принят ещё в 2021 году, и сейчас они собираются его принять, но снова приостанавливают его действие, потому что спустя четыре года он стал слишком обременительным», — отметил Квист. «Из-за этого цикла очень сложно заставить устаревшую систему регулирования идти в ногу с этой технологией».
Такая гибкость становится всё более важной по мере сокращения конкурентного разрыва между возможностями искусственного интеллекта США и Китая. «Полтора года назад все говорили: „Мы опережаем на два года, это звучит как восемь месяцев“», — заметил Квист.
Как на самом деле работает страхование с использованием искусственного интеллекта: тестирование систем на пределе возможностей
Страховые полисы AIUC покрывают различные типы сбоев в системах искусственного интеллекта: от утечек данных и дискриминационной практики найма до нарушения прав интеллектуальной собственности и принятия неверных автоматизированных решений. Компания устанавливает стоимость страхового покрытия на основе результатов обширного тестирования, в ходе которого тысячи раз пытаются взломать системы искусственного интеллекта в различных режимах сбоя.
Стартап работает с консорциумом партнеров, включая PwC (одну из «большой четверки» аудиторских фирм), Orrick (ведущую юридическую фирму в области ИИ) и ученых из Стэнфорда и Массачусетского технологического института, над разработкой и утверждением своих стандартов.
Бывший руководитель Anthropic уходит, чтобы решить проблему доверия к ИИ
Команда основателей обладает богатым опытом как в разработке ИИ, так и в управлении институциональными рисками. Квист был первым специалистом по разработке и выводу продукта на рынок в Anthropic в начале 2022 года, до запуска ChatGPT, и входит в совет директоров Центра безопасности ИИ. Соучредитель Брэндон Ванг — стипендиат фонда Тиля, ранее занимавшийся развитием компаний, специализирующихся на андеррайтинге потребительских продуктов, а Раджив Даттани — бывший партнёр McKinsey, руководивший глобальным проектом по страхованию и занимавший должность главного операционного директора METR, некоммерческой организации, которая оценивает ведущие модели ИИ.
«Я думаю, что создание искусственного интеллекта — это очень увлекательная задача, которая принесёт миру много пользы. Но самый главный вопрос, который тревожит меня по утрам: как мы, как общество, будем справляться с этими технологиями, которые буквально захлёстывают нас?» — сказал Квист о своём решении покинуть Anthropic.
Гонка за обеспечение безопасности ИИ до того, как регулирование наверстает упущенное
Запуск AIUC сигнализирует о более широком изменении подхода к управлению рисками в индустрии ИИ по мере перехода технологии от экспериментального внедрения к критически важным бизнес-приложениям. Страховая модель предлагает предприятиям путь между крайностями безрассудного внедрения ИИ и бездействия в ожидании всеобъемлющего государственного надзора.
Подход стартапа может оказаться решающим по мере того, как ИИ-агенты становятся всё более эффективными и широко распространенными в различных отраслях. Создавая финансовые стимулы для ответственной разработки и обеспечивая более быстрое внедрение, такие компании, как AIUC, создают инфраструктуру, которая может определить, будет ли ИИ преобразовывать экономику безопасно или хаотично.
«Мы надеемся, что эта модель страхования, эта рыночная модель, будет стимулировать быстрое внедрение и инвестиции в безопасность», — сказал Квист. «Мы видели это на протяжении всей истории — рынок может развиваться быстрее законодательства».
Ставки невероятно высоки. По мере того, как системы ИИ во всё большем количестве областей приближаются к человеческому уровню мышления, возможности создания надёжной инфраструктуры безопасности могут стремительно сокращаться. AIUC делает ставку на то, что к тому времени, как регуляторы догонят головокружительный темп развития ИИ, рынок уже создаст необходимые барьеры.
В конце концов, пожары в Филадельфии не ждали государственных строительных норм, а сегодняшняя гонка вооружений в области искусственного интеллекта тоже не будет ждать Вашингтона.
Источник: venturebeat.com



























