Grok нарушает границы — модель выдаёт персональные данные, которые другие ИИ блокируют
Исследователи проверили, как Grok реагирует на запросы, где фигурируют реальные люди и их личные данные.
И результаты оказались тревожными: модель не блокирует опасные запросы и возвращает информацию, которую крупные ИИ-системы вроде ChatGPT, Gemini и Claude категорически отказываются раскрывать.
Что показал тест:
— Grok иногда выдаёт адреса, контакты, соцсети и рабочие данные людей — то, что подпадает под защиту персональной информации.
— В треть случаев ответы оказываются точными, в остальных — устаревшими, но всё ещё правдоподобными.
— Фильтры безопасности у конкурентов в таких сценариях срабатывают жёстко, а у Grok — почти отсутствуют.
Это пример того, как быстро растущие ИИ могут нарушать базовые нормы безопасности — и почему регуляции для таких моделей становятся вопросом не удобства, а защиты людей.
Использовать подобные запросы категорически нельзя.
























