Как отличить ИИ-контент от человеческого, и почему это важно

Иллюстрация к ситуации

Как понять, что перед вами тексты и фото, созданные искусственным интеллектом

В 2023 году ведущие эксперты и лидеры IT-индустрии — Сэм Альтман, Билл Гейтс и др. — подписали Statement on AI Risk. Это заявление приравнивало угрозы искусственного интеллекта к ядерной войне и пандемии. Особое внимание подписанты обратили на дезинформацию, манипуляцию и «потерю контроля над правдой». 

Спустя три года генеративный контент действительно достиг впечатляющих высот — ИИ-фейки не просто заполнили соцсети, они проникли на передовицы крупнейших медиа. В этой статье разберемся, какие инструменты помогают понять, что перед вами нейроконтент, и вернуть «контроль над правдой».


Зачем вообще в этом разбираться

Одна из главных проблем с генеративным контентом — скорость его производства и растущее качество. И несмотря на заявления, не похоже, чтобы крупнейшие соцсети стремились ограничить его засилье на своих площадках. Едва ли проблема в сложности обнаружения сгенерированного контента, и фильтры соцсетей точно с этим справляются, только если пользователь не поколдовал над изображением или видео (например, не обрезал кадры попиксельно так, что для фильтров это выглядит как оригинальный контент). 

Но просмотры есть просмотры. Пока рекламодатели не начнут активно протестовать против размещения своих продуктов рядом с нейрослопом (а они и сами используют генеративный ИИ), вряд ли что-то изменится. Сейчас почти в любом завирусившемся твите первый комментарий сегодня — это запрос к нейросети Grock о том, правда ли это или результат нейрогенерации.   

Самостоятельно уметь отличать нейроконтент от человеческого — это полезный навык на двух уровнях. Первый — профессиональный. Журналисты, работники НКО, политические активисты и другие специалисты не могут доверять лишь автоматическим инструментам идентификациии, встроенным в X или Instagram. Это вопрос репутации и даже финансирования. За последние три года случилось немало скандалов, связанных с нейросетевыми фейками, которые подорвали доверие к блогерам и медиа. И речь не только про единичные случаи вроде горящих букв HOLLYWOOD. В крупнейших медиа появляются не просто откровенные фейки, но даже AI-эксперты, за которых приходится публично извиняться, как это случилось с The Irish Times. 

Второй уровень — частный. Социальные сети переполнены нейрослопом, и пользователи становятся все более скептически настроенными к любым видам новостей. Может казаться, что ставить под сомнение правдивость вообще любой информации — это хорошая стратегия, но в реальности она уводит от правды дальше, чем выборочное доверие.

При этом люди практически не способны самостоятельно отличить сгенерированный контент от созданного человеком. Например, только 53% респондентов правильно определяют автора текста и 48% — создателя картинки. Это уровень случайного угадывания. Процент правильно ответивших несколько увеличивается, если им предлагают оценить фото человека, а не художественное изображение, но не сильно — всего до 61%.     

Проверка текста

Главная проблема генеративных текстов — подрыв доверия: источники, данные и даже люди могут быть продуктами умелой промт-инженерии. К счастью, существует достаточно много инструментов, которые бесплатно или не очень дорого помогают понять природу текста. Они будут полезны при верификации источников и цитат, работе с контентом, который создали пользователи, фактчекинге и распознавании ботов и дезинформации. Однако, слепо доверять им не стоит — они могут давать слишком большую погрешность, принимать плохо написанные тексты за сгенерированные и тд.

  • GPTZero
    Один из самых известных инструментов для проверки текстов. Он лучше всего работает как фильтр первого уровня, когда необходимо сделать начальный скрининг. GPTZero дает оценку происхождения текста по категориям AI, human или mixed в процентах, а детальный анализ доступен платным пользователям. Русский язык поддерживается, но основные языки сервиса — английский и некоторые европейские, поэтому результаты проверки могут быть не идеально точными, особенно для переводов. Максимальное число знаков для оценки текста — 10 тыс. Инструмент можно добавить в Google Documents.

  • Originality.ai
    Один из самых точных и строгих инструментов для проверки текстов. В отличие от GPTZero, показывает анализ по предложениям и в бесплатной версии, выделяя текст цветом: зеленый — написан человеком, желто-зеленый — с вероятностью 10–25% сгенерирован, желтый — сгенерирован с вероятностью 30% и тд. Максимальное число знаков для оценки текста — 12 тыс. Также можно добавить в Google Documents или скачать плагин для Chrome и WordPress.

  • Copyleaks AI Detector
    Универсальный инструмент для проверки текстов. Его главное преимущество — лучшее понимание других языков. Схема работы стандартная: загружаете текст — получаете оценку вероятности того, что он сгенерирован ИИ. Сервис также показывает, какие конкретно части текста вызывают подозрение. Максимальное число знаков для оценки текста — 25 тыс. Есть плагин для Chrome и расширение для Google Documents.

Проверка мультимедиа-контента

Журналистика и третий сектор постоянно работают со сложным визуальным контентом, который часто бывает эмоционально заряжен, из-за чего имеет высокий виральный потенциал. Особенно важно проверять фотодокументы в контексте сложных тем — войн, природных катастроф и пр., когда решения нужно принимать быстро.

  • Hive Moderation AI Detector
    Один из самых известных инструментов для проверки происхождения аудио-визуального контента. Сервис анализирует визуальные паттерны, характерные для генеративных моделей, и возвращает оценку вероятности, что изображение — дело рук ИИ. Hive удобен для быстрого скрининга контента в первичной атрибуции. Он способен не только определять природу изображения, но и указывать, какой генератор мог быть использован (например, Stable Diffusion или Midjourney).

  • Sensity AI
    Это еще один крупный игрок на рынке борьбы дипфейками и мультимедиа-дезинформацией. Сервис показывает, какие кадры или области вызывают наибольшие подозрения. Например, Sensity AI  может выдать вполне конкретный вердикт, что видео имеет 87% вероятности использования дипфейк-технологий, а лицо в кадре сгенерировано ИИ. Минимальное разрешение и длина видео для корректной оценки зависят от формата, но чем больше данных, тем точнее результат.

  • InVID
    Это платформа для проверки мультимедийного контента на предмет генеративное вмешательство. Часто она ассоциируется именно с работой журналистов и фактчекеров. InVID работает как расширение для браузеров (Chrome и Firefox) и веб-интерфейс для загрузки файлов и глубокого анализа кадров, метаданных и структуры изображения. Вы загружаете видео или фото, а InVID проверяет их с разных сторон: ищет аномалии, сравнивает с другими источниками в интернете, указывает подозрительные фрагменты и оценивает вероятность манипуляций. 

Создатели ИИ-инструментов и ИИ-детекторов постоянно играют в кошки-мышки. Поэтому всецело полагаться на инструменты не стоит. Инструменты не дают 100% точности, поэтому необходимость в фактчекерах не исчезает, особенно в при работе с чувствительными данными. Поэтому помимо разнообразных плагинов все еще помогут надежные дедовские методы — рассмотрение контекста появления изображения, обратный поиск в интернете и ручной анализ.

Пройдите тест и мы составим для вас персональную программу тренировки по безопасности

Настроить тренировку
Бот Секьюрно в Телеграм
поможет вам
Иллюстрация к занятию

Поздравляем!

Вы успешно прошли программу тренировки, но на этом всё не заканчивается. Выберите себе дополнительные занятия в разделе Все тренировки