
На сервере препринтов Arxiv было выложено любопытное исследование от отца и сына Вишала и Варина Сикка из Стэнфордского университета и компании VianAI Systems, в котором математически было доказано, что большие языковые модели (LLM) не способы выполнять задачи выше определенной сложности. Это идет вразрез с мнением, что текущие ИИ можно прокачивать бесконечно через увеличение доступных им данных.
И эта работа – не первая, в которой указываются на фундаментальные ограничения LLM. В прошлом году Apple опубликовала исследование, согласно которому LLM неспособны к настоящему рассуждению. Бенджамин Райли, основатель компании Cognitive Resonance, также считает что ИИ никогда не достигнут интеллекта в нашем понимании.
Однако нужно понимать, что все это относится только к LLM. Если будут найдены более эффективные языковые модели – их предел может находиться гораздо выше возможностей нашего интеллекта.
Источник: vk.com
Источник: ai-news.ru



























