
Получив доступ к соответствующим инструментам ИИ с 2022 года, любой из нас может сгенерировать изображение по текстовому описанию. Это удивляет, поражает и одновременно заставляет задуматься: как отличить настоящее от ложного и почему это важно?
Почему не стоит поздравлять незнакомых людей с днем рождения
Страницы соцсетей сейчас пестрят сгенерированными изображениями военных, раненых на войне, обездоленных детей или людей пожилого возраста. Немало и просьб поздравить воина с днем рождения в группах с довольно позитивными названиями: «Единая Украина», «Патриоты Украины» и других.

Эти сообщения создаются таким образом, чтобы вызвать пользователя соцсетей на определенную эмоцию, задержать внимание на данной информации и главное — отреагировать на нее. Казалось бы, чем может быть опасен лайк под таким сообщением?
— Оказывается, может, — убежден Александр Гороховский, руководитель проекта по противодействию дезинформации «БезБрехні», — Одна из главных опасностей реакции на такой пост — возможность автора позже изменить его содержание (текст или изображение) или отредактировать его. Таким образом, вы одобряете информацию, с которой можете быть частично или полностью не согласны, однако доказать, что пост был изменен, очень сложно.

Кроме того, авторы сгенерированного контента таким образом собирают личную информацию о пользователе, группе или сообществе и способствуют быстрому продвижению определенных страниц. Это дает возможность как изучать рынок сбыта информации, так и обрабатывать данные, которые впоследствии россияне будут использовать во время дальнейших дискредитирующих информационных кампаний. Вспомните, чего стоит только безумное влияние образа «распятого мальчика в трусиках» на общественное сознание россиян, поэтому не стоит недооценивать подобные методы.
ШІ на озброєнні росіян

Яркий пример вражеской пропаганды в соцсетях — работник ТЦК извиняется перед украинскими военными, набрал только в Facebook почти 600 тысяч просмотров, 1500 комментариев и 10 тысяч лайков!
Детальный анализ, а именно: выявление учетной записи TikTok по водяной марке petrotremcykvolin на видео, скриншот кадра и загрузка его в раздел «Картинки» поисковых систем помогли узнать, что страница TikTok, на которой была создана эта картинка, оказалась однодневкой (то есть ее создали для одного-единственного «вброса»).
Дипфейк — мощный вид дезинформации
Следует обратить внимание на еще один способ обмана с помощью инструментов ИИ — использование дипфейков. Один из самых распространенных вариантов — сочетание фото или видео с недостоверным аудио или информацией. Например, мэры Берлина, Вены, Мадрида, Будапешта и Варшавы провели телефонный разговор со сгенерированной версией Виталия Кличко. Злоумышленники создали виртуальный двойник мэра Киева с помощью технологии deepfake, а перед этим самостоятельно договорились о звонке. Мэр Берлина Франциска Гиффай во время разговора отключилась, потому что из-за странных просьб мэра заподозрила, что с ним что-то не так. А вот Михаэль Людвиг, бургомистр австрийской столицы, не понял, что с ним вел разговор не настоящий Кличко.

Как определить правдивость информации?
Научиться соблюдать информационную гигиену необходимо, если мы не хотим быть обманутыми и подвергаться манипуляциям.
— Это не так сложно, как кажется на первый взгляд, однако приложить определенные усилия все же придется, — отмечает Александр Гороховский, — Проверять на истинность необходимо как контент в совокупности, так и каждую составляющую отдельно: информацию, ее источник, аудио, изображения.
Определяем реальность изображений
Недавно вышли обновления уже существующих программ, но пока в соцсетях в основном используют сгенерированные фото или рисунки, которые содержат ряд специфических признаков:
- слишком яркие цвета изображений;
- своеобразная «идеальность», искусственность изображений (чистая одежда солдат во фронтовых условиях);
- глянцевая кожа, будто светящаяся изнутри;
- повторы элементов, деталей и лиц (если на картинке изображено много людей, то определенное их количество будут иметь схожие черты лица);
- отсутствие необходимых деталей, мелких дефектов предметов или присутствие лишних (лишние пальцы на руках, или ИИ не понимает, где и как располагаются украшения);
- неравномерное распределение света/тени;
- непропорциональность тела человека, расфокус взгляда (такая себе косоглазие человека);
- использование на заднем плане текста с ошибками и другие.
Попробуем проанализировать эти два фото. На первый взгляд, они кажутся довольно реалистичными. Однако при внимательном наблюдении можно заметить, что на фото слева сумка будто «висит» в воздухе, а значит, именно это изображение является искусственным.

Полезные сервисы и инструменты
Распознавать сгенерированные изображения становится все сложнее, но существуют определенные инструменты, например AI or Not, Hive AI Detector для Chrome, TinEye, https://tineye.com/, которые помогают нам проверять изображения на предмет истинности.
Заметьте, эти и другие инструменты, к сожалению, могут ошибаться. Поэтому увеличьте фото, внимательно его проанализируйте, а при необходимости — примените вспомогательные программы или сервисы. Сделайте закладки таких сервисов в своих гаджетах — это позволит экономить время на поиск. Попробуйте самостоятельно сделать несколько изображений, а лучше подписаться на группу или канал, где люди делятся такими изображениями. Это поможет натренировать вашу способность отличать ИИ-изображения.
Определяем искусственный голос
Голос и незнакомого, и родного человека может быть ненастоящим. Учитывая, что звонки с помощью соцсетей довольно актуальны, приведем несколько признаков сгенерированного с помощью ИИ голоса и рекомендации его проверки:
- ИИ-голоса могут звучать монотонно, без эмоций;
- нестандартная интонация: иногда ИИ может неправильно ставить ударение в словах или делать паузы в несвойственных местах;
- обратите внимание на лексику: она может не соответствовать региону, ситуации или часто употребляемым словам близкого вам человека;
- действенный инструмент проверки искусственного голоса — сервис Descript’s Overdub;
- если вам звонит друг или родственник, используйте текстовый запрос человеку, который вам звонит, из другой соцсети или мобильного оператора.
Почему люди распространяют в соцсетях ИИ-картинки и кому это выгодно
— Не забывайте о еще одной проблеме, условно ее можно назвать «усталость от информации», — объясняет Александр Гороховский, — Ежедневно мы находимся под давлением огромного количества информационных сообщений, и, отвлекаясь на ложные сообщения, в следующий раз проходим мимо правды, ведь каждый раз применять критическое мышление для обработки информации довольно сложно для обычного человека. Кроме того, «эмоционально тяжелые» нарративы, связанные с травматическими событиями в обществе во время войны, довольно сильно истощают нас ментально и психологически. И не забывайте о «потреблении» ложной информации, на основе которой формируется наше отношение к тому или иному человеку или событию, что искажает реальную картину происходящего.
К тому же любая социальная сеть — это рынок. И если правильно использовать его возможности, вполне реально заработать неплохие деньги. Чем больше лайков и комментариев под фальшивыми сообщениями, тем больше прибыль.
— Помните и о вредоносных ссылках, которые часто могут быть замаскированы под различные петиции, сборы средств и тому подобное. При попытке перейти на такие ссылки вполне реально потерять собственные средства или «подцепить» вредоносный вирус. А с возможностью сгенерировать с помощью ИИ голос и изображение, мошеннические схемы получения ваших средств стали делом пяти минут. Казалось бы, не так давно мы научились без соответствующей проверки не реагировать на просьбы друзей в соцсетях перевести определенную сумму денег, а сейчас и голосу родного человека не всегда можно доверять.
И это лишь некоторые опасные последствия обычных реакций на жалостливые сообщения неизвестных нам пользователей или сообществ соцсетей.
Противодействие лжи в соцсетях. Что можно сделать?
- Установить запрет неизвестных групп и сообществ в своем профиле;
- подавать жалобы на контент;
- проверять профиль лица, группы или сообщества, которые распространяют ложный, по вашему мнению, контент;
- комментарий под сообщением может иметь двойной эффект: или развенчание лжи, или лишнее внимание к сообщению;
- старайтесь не выкладывать личную информацию в соцсетях (особенно фото несовершеннолетних) или просто закройте ваш профиль.
ИИ позволяет существенно экономить время и усилия, обрабатывая за считанные минуты довольно большие объемы информации, подобрать необходимые реалистичные изображения и видео, меткие названия, создавая довольно понятный и эмоциональный контент. Это довольно заманчиво. Скажем, создание этого материала с использованием ИИ значительно увеличило бы мое свободное время, однако было бы оно истинным и беспристрастным? Именно поэтому «потребление» сгенерированных с помощью ИИ материалов требует применения критического мышления.
Читайте также:
- Европа хочет взять Одессу под контроль — очередной фейк РФ
- Фейк о брошенном мальчике в Херсоне: почему история 3-летней давности набрала такой ажиотаж в соцсетях
- Зеленский купил машину Гитлера: разоблачаем новый российский фейк
Сообщение Не верь глазам своим: как не попасться на ИИ-обман в соцсетях появились сначала на Одесская Жизнь.