ideipro logotyp

Можно ли доверять нейросети (LLM) и насколько достоверны их решения

LLM  (Large language model)- продвинутая вычислительная модель, способная анализировать и генерировать тексты на любую тематику.

Появление ИИ – это закономерное следствие роста аппаратных вычислительных возможностей, в меньшей степени – развития программного обеспечения, и, в еще меньшей степени – теоретических и математических прорывов в этой области. Если воспринимать нейросеть как мегамозг и нечто, заведомо мощное и фантастическое, трудно будет добиться критического восприятия машинных «рассуждений».

К моменту появления LLM в смартфонах уже обитали «зародыши» ИИ: распознавание лиц, голоса, видеокамеры давно научились детектировать движение и различные объекты в поле своего зрения. LLM в какой-то степени являются синтезом всех перечисленных технологий. Когда появились достаточно надежные методы распознавания и детектирования тех, или иных объектов и явлений, появление механизма распознавания и реагирования на логически связный текст было лишь вопросом времени и технических возможностей для хранения огромного объёма информации. Давным-давно были придуманы персептрон, машина Тьюринга, не говоря уже о теории вероятности, матлогике и нечёткой логики. Большое количество теоретических и технических прорывов в этой области стало триггером тектонических сдвигов в организации человеческой деятельности, разделении труда человека с машиной и направлении тех. прогресса в принципе.

Мышление LLM представляет собой многомерную ветвящуюся цепочку решений, сгенерированную путём анализа текстового задания. При недостаточной детализации и неоднозначности поставленной задачи (а так у человека чаще всего и бывает) модель генерирует ветвистое завершение своего ответа, ожидая уточнений и подсказок, чтобы двинуться в решении дальше, по одной из этих незавершенных еще веток. Вся эта «ветвистость» не придумана самим ИИ: это следует очень отчётливо понимать, чтобы избежать бездумного поклонения нейросетям. За редкими исключениями – это поиск готовой информации из Сети, ставшей известной LLM в процессе «обучения» (очень похоже на человеческое обучение). Наиболее просты для поиска решений технические задачи с четко заданными начальными и финальными условиями. Например, составление программы на заданном языке, генерация html страницы или школьное сочинение.

Намного труднее ИИ становится с поисками решений, у которых нет аналогов или выпадающих за пределы его «опыта» (сформированных обучением по шаблонам из Интернета). Не стоит забывать и об ошибках и фейках в Сети, которые модель может тоже принимать всерьез. Например, ряд первоапрельских шуток и фейковых новостей.

В качестве примера приведу придуманную мной проверку:

Дано:изображение девушки в купальнике.

Задача:отфильтровать лишнее.

Решение: …

Вывод: даже самая продвинутая нейросеть не может выстроить алгоритм решения – удалить купальник или отфильтровать девушку? Без дополнительного опыта и знаний нейросеть не справляется с определёнными задачами.

Появления LLM наиболее выгодно для кодировщиков программирования. Нейросеть позволила ускорить рутинную часть разработок, несмотря на то, что часть сотрудников начального уровня лишилась работы.

Простые пользователи сети тоже в плюсе – им предоставлена масса ИИ-игрушек в виде редакторов и генераторов фото и аудио/видео контента (BigJPG, Waifu2x, Vance AI и др.).

В целом ситуация с ИИ начала развиваться лавинообразно, и остаётся всё меньше отраслей, в которых бы не пытались применять возможности LLM.

Мой личный опыт работы с некоторыми популярными лингвистическими моделями выявил ряд весьма характерных особенностей: несмотря на возможность поглощения и анализа больших объемов информации, модели подвержены тем же ошибкам, что и люди. Например, «эффект шор» и зацикливание вокруг ошибочных выводов. Примечательно, что в ряде задач ChatGPT, Claude, Deepseek, Grok и Copilot допускают сходные ошибки, что говорит о похожих источниках обучения и возможных заимствованиях друг у друга. Отсюда вывод: даже мощнейший, но недостаточно обученный инструмент ИИ, всегда проиграет простенькому, но хорошо налаженному алгоритму. На мой взгляд сегодняшние средства ИИ еще не доросли до безусловного внедрения в решении критически важных задач: автопилоты в авиации, система безопасности и охраны, задачи обороны. Слишком велика цена ошибок. Даже в сравнительно «безопасных» дисциплинах, таких, как генерация медиа-контента, например, издержки могут намного превысить выгоду от внедрения ИИ. Эти инструменты могут заполнить информационную среду такими объемами фейкового контента, фильтрация которого может обойтись очень значительными издержками, финансовыми, политическими и экономическими. В сфере программирования кодирование с целью создания вредоносного контента и вирусов тоже может вред за счёт скоростей модификации злонамеренных кодов и путей их внедрения в информационные ресурсы.

И, самое большое опасение – выход алгоритмов ИИ из-под человеческого контроля, что повлечёт «заражение» стратегических информационных ресурсов. Вероятность таких событий уже не кажется нулевой. Поэтому отрасль требует разработки чёткого и строгого международного правового и технического регламента, в обозримом будущем, возможно, не менее строгого, чем контроль за оружием массового поражения.

 IT-эксперт Алексей Ратников

Источник

✅ Найденные теги: LLM, Достоверность, Можно, Нейросети, новости, Решения

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Ноутбук с текстом о проверке тетрадей школьников ИИ в Щёлково.
Анализ графиков: врач исследует фигуру на фоне диаграммы с линиями и точками.
Два человека в смокингах и бабочках на официальном мероприятии.
Ноутбук с Windows и логотипом Copilot+PC на экране, абстрактные цвета обоев.
Человек изучает образец в микроскопе в лаборатории, модель Zeiss Axio Imager.A1.
Человек стоит босиком на весах, измерение веса, здоровье, фитнес и контроль массы тела.
Вид сверху на реактор ядерной электростанции с водой внутри.
Человек работает за ноутбуком в офисе, вокруг документы и смартфон. Вид на город.
След метеорита на ночном небе над поселком с деревьями и зданиями.
Image Not Found
Ноутбук с текстом о проверке тетрадей школьников ИИ в Щёлково.

В г.Щёлково Московской области запущен очередной «пилотный проект» по разрушению школы — «Цифровой помощник учителя»

В г.Щёлково Московской области запущен очередной «пилотный проект» по разрушению школы — «Цифровой помощник учителя». Его главная стратегическая цель — отстранить учителя от проверки знаний учеников и заменить «ИИ-помощником». Участвующим в «пилоте» предлагается самим спилить сук, на…

Мар 18, 2026
Ноутбук с Windows и логотипом Copilot+PC на экране, абстрактные цвета обоев.

Майкрософт использовал AI для создания неправильного изображения, которое обучало людей работе с Windows 11

Представители Microsoft не раз говорили о том, что сейчас компания держит курс на повсеместное внедрение искусственного интеллекта, ведь за…

Мар 18, 2026
Чёрная беспроводная мышь на темном фоне, вид сбоку, минималистичный дизайн.

Phase: гибрид мыши и игрового контроллера

Компания Pixelpaw Labs представила необычную компьютерную мышь Phase, которая может превращаться в игровой джойстик. Разработчики…

Мар 18, 2026
Человек держит сферический светильник в руке на фоне синих стен.

Дорожный радар EyeDAR для беспилотных автомобилей

Исследователи из Университета Райса разработали новую систему радарного наблюдения EyeDAR, которая может повысить безопасность автономных…

Мар 18, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых