Image

OpenAI удаляет функцию ChatGPT после утечки личных разговоров в поиск Google

Источник: VentureBeat, создано с помощью Midjourney Источник: VentureBeat, создано с помощью Midjourney

Хотите получать более ценную информацию? Подпишитесь на наши еженедельные рассылки, чтобы получать только то, что важно для руководителей в сфере корпоративного ИИ, данных и безопасности. Подпишитесь сейчас

В четверг OpenAI совершила редкий разворот, внезапно прекратив поддержку функции, которая позволяла пользователям ChatGPT делать свои переписки видимыми для Google и других поисковых систем. Решение было принято спустя несколько часов после широкой критики в социальных сетях и представляет собой яркий пример того, как быстро вопросы конфиденциальности могут свести на нет даже самые благонамеренные эксперименты в области искусственного интеллекта.

Эта функция, которую OpenAI описала как «кратковременный эксперимент», требовала от пользователей активного согласия: они делились чатом и устанавливали флажок, чтобы сделать его доступным для поиска. Однако столь быстрый отказ подчёркивает фундаментальную проблему, стоящую перед компаниями, работающими в сфере ИИ: поиск баланса между потенциальными преимуществами обмена знаниями и вполне реальными рисками непреднамеренного раскрытия данных.

Как тысячи личных разговоров ChatGPT стали результатами поиска Google

Скандал разгорелся, когда пользователи обнаружили, что, используя поиск в Google по запросу «site:chatgpt.com/share», можно найти тысячи разговоров незнакомцев с ИИ-помощником. Результаты опроса рисовали интимную картину взаимодействия людей с искусственным интеллектом — от обыденных просьб о совете по ремонту ванной комнаты до глубоко личных вопросов о здоровье и профессиональных вопросов переписывания резюме. (Учитывая личный характер этих разговоров, часто содержавших имена, местоположение и личные обстоятельства пользователей, VentureBeat не публикует ссылки на них и не раскрывает подробности.)

«В конечном итоге мы считаем, что эта функция предоставила слишком много возможностей для людей случайно поделиться вещами, которыми они не собирались делиться», — объяснила команда безопасности OpenAI в X, признав, что барьеров оказалось недостаточно для предотвращения неправомерного использования.

Масштабирование ИИ достигает предела

Ограничения мощности, рост стоимости токенов и задержки в выводе данных меняют корпоративный ИИ. Присоединяйтесь к нашему эксклюзивному салону, чтобы узнать, как обстоят дела у лучших команд:

  • Превращение энергии в стратегическое преимущество
  • Разработка эффективного вывода для реального увеличения пропускной способности
  • Обеспечение конкурентоспособной рентабельности инвестиций с помощью устойчивых систем ИИ

Забронируйте свое место, чтобы оставаться впереди : https://bit.ly/4mwGngO

Инцидент выявил важнейшее «слепое пятно» в подходе компаний, занимающихся разработкой ИИ, к проектированию пользовательского опыта. Хотя технические меры безопасности существовали (функция была доступна по желанию и требовала нескольких кликов для активации), человеческий фактор оказался проблематичным. Пользователи либо не до конца понимали последствия добавления возможности поиска в своих чатах, либо просто игнорировали последствия для конфиденциальности в своём энтузиазме, стремясь делиться полезными сообщениями.

Как заметил один эксперт по безопасности в отношении X: «Препятствия к обмену потенциально конфиденциальной информацией должны быть более серьезными, чем просто флажок, или их не должно быть вообще».

Почему Google Bard и Meta AI столкнулись с похожими скандалами из-за утечки данных

Ошибка OpenAI следует тревожной тенденции в индустрии искусственного интеллекта. В сентябре 2023 года Google столкнулась с аналогичной критикой, когда её разговоры с Bard AI начали появляться в результатах поиска, что побудило компанию принять меры по блокировке. Meta столкнулась с аналогичными проблемами, когда некоторые пользователи Meta AI непреднамеренно публиковали личные чаты в публичных лентах, несмотря на предупреждения об изменении статуса конфиденциальности.

Эти инциденты выявляют более общую проблему: компании, занимающиеся разработкой ИИ, стремительно внедряют инновации и дифференцируют свои продукты, иногда в ущерб надёжной защите конфиденциальности. Необходимость внедрения новых функций и сохранения конкурентного преимущества может отодвинуть на второй план тщательное рассмотрение потенциальных сценариев злоупотребления.

Для руководителей предприятий эта тенденция должна вызывать серьёзные вопросы о должной осмотрительности поставщиков. Если продукты ИИ, ориентированные на потребителей, не обеспечивают базового контроля конфиденциальности, что это означает для бизнес-приложений, обрабатывающих конфиденциальные корпоративные данные?

Что нужно знать компаниям о рисках, связанных с конфиденциальностью чат-ботов с искусственным интеллектом

Спор вокруг поисковой системы ChatGPT имеет особое значение для бизнес-пользователей, которые всё чаще полагаются на ИИ-помощников для самых разных задач — от стратегического планирования до конкурентного анализа. Хотя OpenAI утверждает, что корпоративные и командные учётные записи имеют разные уровни защиты конфиденциальности, ситуация с потребительскими продуктами подчёркивает важность понимания того, как именно поставщики ИИ-решений осуществляют обмен данными и их хранение.

Умные предприятия должны требовать от своих поставщиков ИИ чётких ответов по вопросам управления данными. Ключевые вопросы включают: При каких обстоятельствах разговоры могут быть доступны третьим лицам? Какие существуют средства контроля для предотвращения случайного раскрытия информации? Насколько быстро компании могут реагировать на инциденты, связанные с нарушением конфиденциальности?

Этот инцидент также демонстрирует вирусный характер нарушений конфиденциальности в эпоху социальных сетей. В течение нескольких часов после обнаружения инцидента история распространилась по X.com (бывший Twitter), Reddit и крупным технологическим изданиям, что ещё больше подорвало репутацию компании и вынудило OpenAI принять меры.

Дилемма инноваций: создание полезных функций ИИ без ущерба для конфиденциальности пользователей

Концепция OpenAI в отношении функции чата с возможностью поиска изначально не была ошибочной. Возможность находить полезные диалоги с участием ИИ могла бы действительно помочь пользователям находить решения распространённых проблем, подобно тому, как Stack Overflow стал бесценным ресурсом для программистов. Концепция создания базы знаний с возможностью поиска на основе взаимодействий с ИИ заслуживает внимания.

Однако реализация выявила фундаментальное противоречие в разработке ИИ. Компании хотят использовать коллективный интеллект, генерируемый в процессе взаимодействия с пользователями, одновременно защищая конфиденциальность их данных. Поиск оптимального баланса требует более сложных подходов, чем простое выставление флажков.

Один из пользователей X уловил сложность: «Не урезайте функциональность из-за того, что люди не умеют читать. Стандартные настройки хороши и безопасны, вам следовало бы настоять на своём». Но другие не согласились, и один из них отметил, что «содержимое chatgpt часто более конфиденциально, чем банковский счёт».

Как предложил эксперт по разработке продуктов Джеффри Эмануэль в X: «Определенно следует провести посмертный анализ этого и изменить подход в будущем, задав себе вопрос: «Насколько плохо будет, если самые глупые 20% населения неправильно поймут и неправильно используют эту функцию?», и спланировать действия соответствующим образом».

Необходимые элементы управления конфиденциальностью, которые должна внедрить каждая компания, работающая в сфере искусственного интеллекта

Фиаско с поисковой доступностью ChatGPT преподносит несколько важных уроков как компаниям, работающим в сфере искусственного интеллекта, так и их корпоративным клиентам. Во-первых, настройки конфиденциальности по умолчанию имеют огромное значение. Функции, которые могут раскрыть конфиденциальную информацию, должны требовать явного, осознанного согласия с чёткими предупреждениями о возможных последствиях.

Во-вторых, дизайн пользовательского интерфейса играет ключевую роль в защите конфиденциальности. Сложные многоэтапные процессы, даже технически безопасные, могут привести к ошибкам пользователей с серьёзными последствиями. Компаниям, работающим в сфере ИИ, необходимо вложить значительные средства в создание надёжных и интуитивно понятных средств управления конфиденциальностью.

В-третьих, крайне важны возможности быстрого реагирования. Способность OpenAI изменить курс в течение нескольких часов, вероятно, предотвратила более серьёзный репутационный ущерб, но инцидент всё же вызвал вопросы к процессу проверки функций.

Как предприятия могут защитить себя от нарушений конфиденциальности ИИ

По мере того, как искусственный интеллект всё больше интегрируется в бизнес-процессы, подобные инциденты, связанные с конфиденциальностью, вероятно, станут более серьёзными. Ставки резко возрастают, когда в ходе обсуждений затрагиваются корпоративная стратегия, данные клиентов или конфиденциальная информация, а не личные вопросы о ремонте дома.

Дальновидным предприятиям следует рассматривать этот инцидент как сигнал к усилению своих систем управления ИИ. Это включает в себя проведение тщательной оценки воздействия на конфиденциальность перед внедрением новых инструментов ИИ, разработку четких политик относительно того, какая информация может быть передана системам ИИ, и ведение подробного учета приложений ИИ в организации.

Более широкая индустрия искусственного интеллекта также должна извлечь уроки из неудач OpenAI. По мере того, как эти инструменты становятся всё более мощными и повсеместными, право на ошибку в защите конфиденциальности продолжает сокращаться. Компании, которые с самого начала уделяют первостепенное внимание продуманному проектированию систем конфиденциальности, вероятно, получат значительные конкурентные преимущества по сравнению с теми, кто относится к конфиденциальности как к чему-то второстепенному.

Высокая цена подорванного доверия к искусственному интеллекту

Эпизод ChatGPT с возможностью поиска иллюстрирует основополагающую истину о внедрении ИИ: подорванное доверие невероятно сложно восстановить. Хотя быстрая реакция OpenAI, возможно, позволила сдержать немедленный ущерб, этот инцидент служит напоминанием о том, что нарушения конфиденциальности могут быстро затмить технические достижения.

Для отрасли, стремящейся преобразить нашу жизнь и работу, сохранение доверия пользователей — не просто приятное дополнение, а жизненно важная необходимость. По мере расширения возможностей искусственного интеллекта успеха добьются те компании, которые докажут свою способность ответственно подходить к инновациям, ставя конфиденциальность и безопасность пользователей в центр процесса разработки своих продуктов.

Вопрос теперь в том, извлечет ли индустрия искусственного интеллекта урок из этого последнего тревожного сигнала о конфиденциальности или продолжит спотыкаться на подобных скандалах. Ведь в гонке за создание максимально полезного ИИ компании, забывающие о защите своих пользователей, могут оказаться в одиночестве.

Источник: venturebeat.com

✅ Найденные теги: OpenAI, новости
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых