Компания Microsoft в рамках инициативы AI for Good провела масштабное исследование, чтобы определить, насколько эффективно люди могут отличать изображения, созданные искусственным интеллектом, от настоящих. В эксперименте приняли участие более 12,5 тысячи человек из разных стран. Всего было проанализировано 287 тысяч изображений.
По данным издания Neowin, общий уровень точности распознавания оказался невысоким — всего 62%. В рамках исследования участники играли в интерактивную игру «Правда или нет», где им предлагалось определить, какое изображение реально, а какое сгенерировано ИИ. Изображения не фильтровались и не подбирались специально — использовались разнообразные материалы без акцента на "сложные" случаи.
Что удалось определить:
Для сравнения, ИИ-детектор, созданный исследователями, показал точность более 95%, подтвердив, что автоматические методы пока что надёжнее человеческого восприятия — хотя и они не дают 100% гарантии.
Рекомендации и меры
На основе полученных данных Microsoft рекомендует использовать технологии, повышающие прозрачность визуального контента, например:
Эти меры особенно важны в борьбе с дезинформацией, распространяемой с помощью реалистичных ИИ-изображений.
Ранее, в 2024 году, Microsoft и OpenAI объявили о создании двухмиллионного фонда, направленного на противодействие угрозам, связанным с ИИ и дипфейками. Также OpenAI запустила специализированный детектор для выявления подделок, созданных с помощью DALL-E, чтобы помочь исследователям, работающим в сфере информационной безопасности и противодействия фейковым новостям.
По данным издания Neowin, общий уровень точности распознавания оказался невысоким — всего 62%. В рамках исследования участники играли в интерактивную игру «Правда или нет», где им предлагалось определить, какое изображение реально, а какое сгенерировано ИИ. Изображения не фильтровались и не подбирались специально — использовались разнообразные материалы без акцента на "сложные" случаи.
Что удалось определить:
- Фальшивые портреты участников распознавали сравнительно легко — вероятно, благодаря естественной способности человека улавливать мельчайшие нюансы лиц.
- Сложности возникали с пейзажами — как природными, так и городскими: точность распознавания упала до 59–61%. Изображения без явных искажений или стилистических «подсказок» часто воспринимались как подлинные.
- Более ранние ИИ-модели, такие как GAN и методы inpainting, показали неожиданно высокую эффективность в обмане людей, создавая реалистичные сцены, похожие на обычные фотографии. Это контрастирует с узнаваемым стилем современных моделей вроде Midjourney и DALL-E 3.
Для сравнения, ИИ-детектор, созданный исследователями, показал точность более 95%, подтвердив, что автоматические методы пока что надёжнее человеческого восприятия — хотя и они не дают 100% гарантии.
Рекомендации и меры
На основе полученных данных Microsoft рекомендует использовать технологии, повышающие прозрачность визуального контента, например:
- Водяные знаки;
- Надёжные системы обнаружения ИИ-генерированного контента.
Эти меры особенно важны в борьбе с дезинформацией, распространяемой с помощью реалистичных ИИ-изображений.
Ранее, в 2024 году, Microsoft и OpenAI объявили о создании двухмиллионного фонда, направленного на противодействие угрозам, связанным с ИИ и дипфейками. Также OpenAI запустила специализированный детектор для выявления подделок, созданных с помощью DALL-E, чтобы помочь исследователям, работающим в сфере информационной безопасности и противодействия фейковым новостям.