Новости

Microsoft выяснила, насколько хорошо люди распознают изображения, сгенерированные ИИ

Компания Microsoft в рамках инициативы AI for Good провела масштабное исследование, чтобы определить, насколько эффективно люди могут отличать изображения, созданные искусственным интеллектом, от настоящих. В эксперименте приняли участие более 12,5 тысячи человек из разных стран. Всего было проанализировано 287 тысяч изображений.

По данным издания Neowin, общий уровень точности распознавания оказался невысоким — всего 62%. В рамках исследования участники играли в интерактивную игру «Правда или нет», где им предлагалось определить, какое изображение реально, а какое сгенерировано ИИ. Изображения не фильтровались и не подбирались специально — использовались разнообразные материалы без акцента на "сложные" случаи.

Что удалось определить:

  • Фальшивые портреты участников распознавали сравнительно легко — вероятно, благодаря естественной способности человека улавливать мельчайшие нюансы лиц.
  • Сложности возникали с пейзажами — как природными, так и городскими: точность распознавания упала до 59–61%. Изображения без явных искажений или стилистических «подсказок» часто воспринимались как подлинные.
  • Более ранние ИИ-модели, такие как GAN и методы inpainting, показали неожиданно высокую эффективность в обмане людей, создавая реалистичные сцены, похожие на обычные фотографии. Это контрастирует с узнаваемым стилем современных моделей вроде Midjourney и DALL-E 3.

Для сравнения, ИИ-детектор, созданный исследователями, показал точность более 95%, подтвердив, что автоматические методы пока что надёжнее человеческого восприятия — хотя и они не дают 100% гарантии.

Рекомендации и меры

На основе полученных данных Microsoft рекомендует использовать технологии, повышающие прозрачность визуального контента, например:

  • Водяные знаки;
  • Надёжные системы обнаружения ИИ-генерированного контента.

Эти меры особенно важны в борьбе с дезинформацией, распространяемой с помощью реалистичных ИИ-изображений.

Ранее, в 2024 году, Microsoft и OpenAI объявили о создании двухмиллионного фонда, направленного на противодействие угрозам, связанным с ИИ и дипфейками. Также OpenAI запустила специализированный детектор для выявления подделок, созданных с помощью DALL-E, чтобы помочь исследователям, работающим в сфере информационной безопасности и противодействия фейковым новостям.