Изображения, созданные нейросетями, чаще всего выдают анатомические ошибки, искажения перспективы и нелогичные детали в кадре, а ИИ-тексты - избыточная шаблонность, повторяемость формулировок и упрощенный стиль, рассказали эксперты ВТБ.
Среди ключевых рекомендаций для выявления такого контента - критическая оценка источников, внимание к деталям, проверка метаданных изображений и использование специализированных онлайн-инструментов.
Генеративные нейросети используются сегодня практически во всех сферах, от финансов до индустрии развлечений. Вместе с ростом возможностей искусственного интеллекта увеличиваются и риски: с помощью ИИ создаются правдоподобные фейковые тексты, изображения и видео, которые все сложнее отличить от реальных.
В таких условиях особое значение приобретает системный подход к проверке достоверности информации и развитию цифровой грамотности, отметил Team Lead DS департамента анализа данных и моделирования ВТБ Алексей Пустынников.
«Главное правило выявления фейковых изображений - это внимание к деталям. Наиболее частыми признаками нейросетевой генерации становятся анатомические ошибки, например лишние или деформированные пальцы, искажения перспективы, неестественные тени и отражения, а также артефакты или бессмысленные надписи. Кроме того, стоит насторожиться, если в кадре присутствуют предметы, которые нарушают законы физики или не соответствуют здравому смыслу. Такой подход позволяет вовремя распознать подделку, даже если на первый взгляд изображение кажется реалистичным», - подчеркнул Алексей Пустынников.
Наряду с визуальным контентом широко распространяются и тексты, созданные нейросетями. Такие материалы можно встретить в самых разных форматах - от пользовательских комментариев и отзывов до новостных заметок и аналитики. Они выглядят грамотными, структурно выверенными и лексически богатыми. При этом сгенерированные тексты зачастую отличаются повторяемостью формулировок, однотипной интонацией, избыточными пояснениями, чрезмерной вежливостью и оптимизмом, а также расплывчатым выражением мнения.
Как отмечают эксперты ВТБ, ключ к распознаванию ИИ-контента в понимании типичных особенностей его структуры и правильном подходе к оценке самой информации.
По мере распространения ИИ-контента востребованными становятся инструменты, которые позволяют проверять его достоверность - как в повседневной практике, так и на уровне корпоративных решений. Наиболее активно развиваются модели-детекторы, способные автоматически определять, был ли текст или изображение сгенерированы нейросетью, а также оценивать достоверность и корректность информации. Такие подходы становятся особенно актуальными при работе с базами знаний и клиентскими интерфейсами, где важно исключить риск дезинформации или некорректных формулировок, подчеркнули в ВТБ.
▶▶ Хотите сообщить новость? Напишите нам! ◀◀