В Омском Политехе сделали голосовую аутентификацию нового уровня — теперь система проверяет не только кто говорит, но и в каком он состоянии.
ИИ анализирует речь и вытаскивает из неё десятки параметров: тон, тембр, паузы, ритм, динамику. На их основе формируется биометрический ключ, а дальше ансамбль моделей определяет состояние человека — нормальное, сонливость и другие отклонения.
Фактически это уже не просто логин по голосу. Это система, которая может сказать:
пользователь — тот самый, но сейчас он, например, уставший или не в ресурсе.
Зачем это нужно:
— защита критических систем (банки, инфраструктура)
— снижение человеческого фактора
— контроль операторов в ответственных зонах
Ключевой сдвиг:
аутентификация превращается из “подтвердить личность” в “оценить пригодность к действию прямо сейчас”.
Если такие решения доведут до продакшена, это может сильно изменить безопасность —
доступ будет зависеть не только от личности, но и от состояния человека в моменте.





















