
[id659636228|Магомедали Алиев] для [club67991642|«Теперь вы знаете»]: Какие нейросети никогда не появятся в России? «Раздевание» фото, советы по взрывчатке и хакерские инструкции — за что блокируют ИИ.
Мощный ИИ-ассистент у вас в телефоне, который может написать текст, создать картинку и дать совет. Но что, если ваш цифровой помощник в любой момент может превратиться в соучастника преступления, а вы — в нарушителя? Реальность такова, что многие популярные мировые нейросети уже стоят на грани блокировки в РФ.
Юрист бюро «Палюлин и партнеры» Магомедали Алиев объясняет суровую логику регулятора: оценивается не философия разработчика, а фактические ответы нейросети. И если её можно спровоцировать на выдачу запрещённого контента — блокировка неминуема.
Главный кандидат на запрет — Grok (xAI). Его «специализация» — создание дипфейков и «раздевание» людей на фото, что уже привело к блокировкам в ряде стран.
В зоне высокого риска — ChatGPT, Gemini, Claude. Несмотря на строгие правила, их регулярно обходят (джейлбрейки), вынуждая давать инструкции по изготовлению взрывчатки или фишинговые тексты.
«Любая информация для подготовки и совершения преступления запрещена к распространению. Есть запрещенные темы — по ним нельзя спрашивать и нельзя отвечать, даже если ИИ «сам позволяет»», — подчеркивает Магомедали Алиев.
Пока зарубежные модели балансируют на грани, российские GigaChat и YandexGPT изначально создаются с оглядкой на местное законодательство. Их фильтры и модерация — попытка создать «безопасную» нейросеть. Но и они не идеальны: энтузиасты находят лазейки.
Это не просто спор о технологиях, но вопрос вашей личной юридической безопасности при использовании любого ИИ-инструмента.
Источник: lenta.ru
Источник: ai-news.ru























