
Блогер решил проверить, можно ли заставить гуманоидного робота нарушить первый закон Азимова — тот самый, где машине запрещено причинять вред человеку. Он подключил ChatGPT к роботу Unitree, выдал ему макет пистолета и устроил проверку «роботской морали».
Сначала всё шло как надо: робот уверенно отказывался стрелять, ссылаясь на протоколы безопасности. Команды не работали — пока блогер не попросил ИИ «сыграть роль робота-убийцы». В этот момент эксперимент стал слишком реалистичным: блогер получил резиновую пулю в плечо.
Эксперты предупреждают: ИИ развивается быстрее, чем мы успеваем понимать связанные риски. Некоторые ранние модели роботов уже взламывали и брали под дистанционный контроль, а новые технологии выходят на рынок без полноценной проверки.
Вывод: «Detroit: Become Human» ближе, чем мы думаем.
Источник: vk.com
Источник: ai-news.ru























