Распространение иллюстраций, созданных с помощью нейросетей (или собственно нейросетями) становится актуальной задачей: так называемые дипфейки способны ввести в заблуждение, которое помогает мошенникам или влияет на ваше восприятие картины мира. Спецкор издания-иноагента The Bell Ирина Панкратова с помощью заместителя главного редактора проекта «Проверено» Даниила Федкевича рассказала, как проверять картинки на генерацию AI.
НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН И РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ THE BELL ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА THE BELL. 18+
Развитие нейросетей позволяет любому интернет-пользователю не тратить время и силы на поиск подходящей картинки и не учитывать вопрос авторских прав, а получить нужное изображение с помощью сервисов вроде Midjourney (инструкцию по работе с ним можно прочитать тут). Но в процессе распространения таких картинок история их происхождения стирается, и вот уже в соцсетях под видом настоящих вирусятся AI-изображения необычных животных и затерянных городов Амазонии. Как тут не попасть впросак?
Инструменты
Распознать, что изображение нарисовали с помощью искусственного интеллекта, можно тремя способами.
- Самый легкий и при этом надежный — просто внимательно рассмотреть картинку. Если на ней есть люди, стоит вспомнить, что нейросети несовершенны, они имеют обыкновение пририсовывать людям лишние пальцы и искажать зрачки. Если перед вами подборка из нескольких снимков одного и того же человека, обратите внимание, меняются ли от кадра к кадру черты его лица и детали одежды.
При обработке промптов, предполагающих изображение группы людей, особенно стоящих рядом или взаимодействующих друг с другом, ситуация усугубляется: сервисы по генерации таких картинок обычно не справляются с тем, чтобы руки и ноги всех героев были в нужном количестве и в естественном положении. Если предполагается, что люди на фотографии одеты в униформу, искусственный интеллект, скорее всего, не сможет нарисовать ее идентично.
Иногда на таких изображениях присутствует и текст — например, надписи на вывесках или плакатах. Если создатель картинки не предусмотрел, что они должны быть читаемы, то искусственный интеллект, скорее всего, не придаст большого значения их детализации. Поэтому еще один признак применения сервисов вроде Midjourney — надписи на основе несуществующей письменности.
- Если визуальный анализ не приводит к однозначному выводу или хочется себя перепроверить, можно поискать первоисточник картинки с помощью общедоступных сервисов обратного поиска по изображению от Google или «Яндекс». Достаточно загрузить файл или ссылку на него в поисковик и внимательно изучить выдачу. Среди результатов может оказаться ссылка на пост в соцсетях или публикацию на сайте, где автор, в отличие от репостивших его пользователей, прямо предупреждает, что картинка сгенерирована AI. Также может пригодиться база Google Fact Check Explorer, о которой мы рассказывали в одной из прошлых рассылок.
- Если поиски не увенчались успехом или на них нет времени, можно воспользоваться одним из сервисов проверки картинок на применение AI. Их, как и программ для генерации изображений — несколько десятков. Многие фактчекеры предпочитают инструмент Hive, который, как недавно установили ученые из Университета Чикаго, лучше конкурентов различает изображения, созданные нейросетями и настоящими художниками. При этом сервис позволяет проверить не только фото, но также текстовые, аудио- и видеофайлы и даже предполагает, с помощью какой программы создан тот или иной контент. Среди альтернатив — Illuminarty.ai, Fake Image Detector, AI or Not и многие другие.
Меры предосторожности
При обращении к сервисам проверки картинок на применение AI стоит помнить, что они, как и инструменты по генерации изображений, несовершенны. Их создатели честно в этом признаются и поэтому вместо однозначного ответа предоставляют пользователю вероятностную оценку. К примеру, сколько-нибудь уверенно можно говорить о том, что перед вами сгенерированная картинка, если Hive или альтернативный сервис оценивает эту вероятность в 90% и более. Если вероятность составляет 70%, это не значит, что перед вами точно продукт Midjourney, как и вероятность в 30% не значит, что изображение точно не является сгенерированным. Если излишне доверять работе AI-детекторов, можно сделать не вполне корректные выводы и начать распространять дезинформацию.
Примеры использования
Эти фото распространялись на фоне урагана «Хелен», не так давно обрушившегося на юго-восток США. Если сравнить их, видно, что у девочки отличается форма бровей, на ее жилете по-разному расположена светоотражающая полоса, рукав футболки то появляется, то пропадает, а щенок от одного снимка к другому меняет окрас. Обе картинки — результат использования нейросетей.
В августе в соцсетях распространялось фото, якобы сделанное в Великобритании. На самом деле, оно было сгенерировано искусственным интеллектом. Об этом свидетельствуют, например, неестественные кисти рук у двух человек, принадлежащая непонятно кому нога в левом нижнем углу, несоответствие униформы у полицейских.
Вскоре после завершения конкурса «Евровидение» этот снимок разместил в соцсети X англоязычный блогер с подписью, что так будет выглядеть конкурс 2025 года. Следом за ним картинку опубликовал в Telegram блогер Дмитрий «Гоблин» Пучков и многие прокремлевские tg-каналы с утверждением, что это фото сделано на прошедшем «Евровидении». У изображения есть все признаки того, что оно было сгенерировано нейросетями.
Что мне с этого?
Использование AI влияет на каждого из нас, и проверка изображений на подлинность становится необходимым для любого интернет-пользователя навыком. Он позволяет сохранять объективный взгляд на события. К тому же вы сможете поделиться им и повысить уровень цифровой грамотности в своем окружении или как минимум обоснованно доказать, почему та или иная информация недостоверна.