Группа исследователей Google выяснила, что искусственный интеллект в настоящее время является основным источником онлайн-дезинформации, основанной на изображениях. 80% визуальной дезинформации в Интернете, как утверждается, исходит от злоупотребляющих искусственным интеллектом пользователей. Такое тревожное распространение дезинформации связано с доступностью и популярностью генеративных инструментов на основе ИИ и может нанести серьезный ущерб социальному равновесию.
В эпоху социальных сетей распространение дезинформации становится все более тревожным. В последние годы взрывной рост использования генеративных инструментов на основе ИИ еще больше усилил эти опасения. Хотя такие инструменты редактирования и создания, как Photoshop, также могут быть использованы не по назначению, контент, созданный искусственным интеллектом, зачастую более реалистичен и, что еще важнее, гораздо проще в создании и распространении.
Однако до сих пор исследования дезинформации в Интернете были сосредоточены в основном на текстовом контенте. Изобразительному контенту уделялось относительно мало внимания, что удивительно, учитывая широкое использование таких онлайн-медиаплатформ, как YouTube и Tik Tok. Каждая из этих платформ насчитывает более миллиарда пользователей, и ежедневно на них размещается в общей сложности более 3,5 миллиарда изображений.
С другой стороны, изображения обычно считаются убедительными и эффективными средствами коммуникации. Исследования показали, что изображения, передающие утверждения, обычно воспринимаются как значимые и могут изменить мнение о достоверности этого утверждения. Поэтому неудивительно, что одновременно с распространением изображений, созданных искусственным интеллектом, резко возросло количество визуальной дезинформации.
Новое исследование, проведенное под руководством ученых Google, является одним из немногих, оценивающих масштабы распространения визуальной дезинформации, генерируемой ИИ. «Распространенность и вред дезинформации в сети — это постоянная проблема для интернета, институтов и общества в целом», — объясняют они в своем отчете, опубликованном на платформе arXiv. «Распространение генеративных инструментов на основе ИИ, которые обеспечивают широкодоступные методы синтеза реалистичных аудио, изображений, видео и текста, усилило эти опасения», — пишут они.
80 % дезинформации на основе изображений теперь генерируется искусственным интеллектом
В рамках исследования команда ученых проанализировала 135 838 материалов, основанных преимущественно на изображениях. Их точность проверяли 83 эксперта с помощью ClaimReview — системы тегов, которую издатели используют для проверки информации в поисковых системах, приложениях и социальных сетях, таких как Google и Bing.
Исследователи обнаружили, что на момент проведения исследования 80% дезинформации, основанной на изображениях, приходилось на контент, созданный искусственным интеллектом. С другой стороны, «рост числа дезинформационных заявлений с использованием генерируемого ИИ контента и его распространенность — относительно недавнее явление, возникшее в значительной степени после широкого освещения в СМИ», — пишут они. Кроме того, методы, используемые для распространения ложной информации, в основном основаны на манипулировании контекстом.
Этот показатель вызывает беспокойство, особенно в отношении политически значимого контента, например, связанного с выборами или конфликтами. Глубокие подделки знаменитостей, например, могут изменить восприятие людьми определенных политических кандидатов и повлиять на их голосование, что может оказать серьезное влияние на страну в целом.
В то же время качество результатов поисковых систем, таких как Google Search, значительно падает по мере распространения контента, созданного искусственным интеллектом. В то время как технологический гигант позиционирует себя как одного из главных игроков в гонке ИИ, его поисковая система ухудшается из-за увеличения количества посредственного контента, созданного ИИ.
Однако важно отметить, что возможности проверки ClaimReview не являются непогрешимыми, говорят исследователи. «Возможности проверки фактов не являются абсолютно гибкими, и мы не можем предположить, что они обязательно будут развиваться вместе с общим объемом дезинформации», — сказал 404 Media Николас Дюфур из Google, ведущий автор исследования. Более того, в исследовании не учитывалось частичное использование ИИ для создания контента. Тем не менее эти результаты уже свидетельствуют о масштабах распространения дезинформации и должны послужить тревожным сигналом для общественности и политиков.