Вкратце

Не только скептики в отношении ИИ предупреждают пользователей о том, что не следует бездумно доверять результатам работы моделей — об этом сами компании, занимающиеся разработкой ИИ, заявляют в своих условиях предоставления услуг.
Возьмем, к примеру, Microsoft, которая в настоящее время сосредоточена на привлечении корпоративных клиентов к оплате Copilot. Однако компания также подвергается критике в социальных сетях из-за условий использования Copilot, которые, судя по всему, последний раз обновлялись 24 октября 2025 года.
«Copilot предназначен исключительно для развлекательных целей», — предупредила компания. «Он может совершать ошибки и работать не так, как задумано. Не полагайтесь на Copilot в плане важных советов. Используйте Copilot на свой страх и риск».
Представитель Microsoft сообщил PCMag, что компания обновит то, что они назвали «устаревшим языком».
«По мере развития продукта, этот язык больше не отражает того, как Copilot используется сегодня, и будет изменен в нашем следующем обновлении», — сказал представитель компании.
Издание Tom's Hardware отметило, что Microsoft — не единственная компания, использующая подобные оговорки в отношении ИИ. Например, OpenAI и xAI предупреждают пользователей, что они не должны полагаться на их результаты как на «истину» (цитируя xAI) или как на «единственный источник истины или фактической информации» (OpenAI).
Источник: techcrunch.com






















