Специалисты ВТБ назвали ключевые способы борьбы с галлюцинациями нейросетей - генерацией текста, который выглядит правдоподобно, но содержит вымышленные факты, неточные данные или ссылки на несуществующие источники. Такие ошибки способны не только создать для пользователя затруднения при работе с информацией, но и привести к финансовым и репутационным рискам для бизнеса.
«Бывают случаи, когда нейросеть предлагает несуществующие книги в списке рекомендаций или формирует условия продукта, которых на самом деле нет. Модель не проверяет факты, а подбирает наиболее вероятный ответ, поэтому такие ошибки выглядят правдоподобно, но вводят в заблуждение. В первую очередь снизить количество галлюцинаций можно за счет четко сформулированных запросов. Но все же самый надежный способ контроля - это внимательная проверка результата человеком», - сообщил руководитель направления разработки ИИ-решений ВТБ Лев Меркушов.
Как отметил лидер команды по разработке моделей Алексей Пустынников, для предотвращения искажений информации со стороны ИИ важно анализировать и учитывать и характер самих ошибок. Языковые модели не понимают смысла информации и не проверяют ее достоверность в реальном времени, поэтому сбои проявляются по‑разному. В одних случаях система искажает проверяемые данные, в других - формирует вымышленные сведения или неправильно следует инструкциям.
Причины возникновения ИИ‑галлюцинаций связаны с особенностями обучения и работы языковых моделей. Они формируют ответы на основе вероятностных связей в данных. Дополнительную роль играют ограничения обучающей выборки: модели не обладают сведениями о событиях, произошедших после сбора данных.
«Другой распространенной причиной ИИ-галлюцинаций являются сложные и абстрактные задачи, которые значительно повышают вероятность ошибок в работе больших языковых моделей. Чтобы снизить такие ошибки, мы рекомендуем использовать несколько подходов. Один из них - продуманная постановка вопросов и инструкций для модели, чтобы она лучше понимала задачу. Еще один способ - так называемая цепочка рассуждений, когда сложный запрос разбивают на простые шаги. Часто применяют и специальные системы, которые перед формированием ответа ищут информацию в проверенных базах данных. Кроме того, модели дообучают на данных из конкретной области, чтобы они лучше понимали термины и нюансы. А специальные защитные механизмы - AI guardrails - помогают отслеживать ответы и вовремя останавливать модель, если она выдает что‑то неверное», - подчеркнул Лев Меркушов.
Эксперты ВТБ подчеркивают: использование ИИ требует не только технологической зрелости, но и ответственного отношения к качеству данных, прозрачности алгоритмов и контролю за результатами.
Новости по теме
- ВТБ запустил видеоконсультации на русском жестовом языке
- Мошенники все чаще атакуют россиян от имени топ-менеджеров компаний
- Стало известно, как уменьшить налог на проценты по вкладам
- Россиян предупредили о возможных списаниях с банковских карт
- Пенсионными клиентами ВТБ стали более 4 млн человек
- Рынок сбережений вырос на 7% с начала года
- Лимит на число банковских карт могут ввести уже этой зимой
- Голосование по выбору символов для купюры в 500 рублей отменили
- ВТБ запустил молодежную банковскую карту
- Альтернативные платежи займут 47% безналичного рынка к 2026 году
Последние новости
- Синоптики рассказали о погоде в Пензенской области 30 октября
- В Пензе хотят заменить контроллеры светофоров на нескольких улицах
- В Пензе ищут новые способы борьбы с парковкой на Московской
- Опубликован график приема участников СВО и их семей в ноябре
- В Пензе продлили срок бесплатного вывоза опавшей листвы на полигон
- Стал известен график перечисления пенсий в ноябре
- Завершен ремонт дорог, проходящих через Городище и Среднюю Елюзань
- Составность поездов между станциями Пенза-I и Башмаково снова увеличат
- В Пензе оштрафовали на 600 000 руб. самарскую транспортную компанию
- На трассе М-5 после вмешательства прокуратуры залатали ямы






