10 громких скандалов из-за применения ИИ

17.01.2026

Почему пользователей так бесит ИИ в рекламе, авторских текстах и видеопродакшене. И что с этим делать, чтобы избежать скандала.

Арина Джамелашвили

Арина Джамелашвили

Ведущий редактор Markway

В конце 2025 года словарь Merriam-Webster назвал словом года термин AI slop — неряшливо сгенерированный ИИ-контент низкого качества. И эта языковая фиксация прекрасно отражает медиасреду, в которой мы оказались.

Последние два года интернет накрыли волны контента от ИИ. Среди самых вирусных форматов: достаточно реалистичные в начале, но совершенно абсурдные под конец видеоинтервью c бабушками. Фейковая съемка с камер наблюдения с невероятными происшествиями. А еще розыгрыши мам с помощью сгенерированных фото Путина на фоне их собственной квартиры. И многое другое.

При этом если раньше такой контент мог “одурачить” лишь единицы пользователей, то теперь каждому приходится всматриваться в детали, чтобы понять, с чем он имеет дело — фейком или реальным видео.

Видео с прыгающими кроликами, сгенерированное ИИ

Хотя “брейнрот-контент” и вызывает полярные реакции — одних он веселит, других раздражает, — в целом отношение к нему остается снисходительным. Ведь такой контент создан в первую очередь для развлечения. И не претендует ни на глубину, ни на правдивость.

Но когда “уши” ИИ находят в авторском контенте, творческой деятельности или креативном продукте, аудитория хватается за вилы и факелы.

Самые громкие скандалы с нейросетями в 2025 году

1. ИИ в авторских блогах: слово живое и искусственное

Случай с историком Тамарой Эйдельман (признана Минюстом иноагентом) показал, насколько чувствительны мы стали к малейшему намеку на вмешательство ИИ в контент. Один из ее постов, видимо, был частично отредактирован с помощью нейросетей, поэтому при публикации в соцсеть X в нем осталась приписка “вот обновленный вариант в духе Тамары Эйдельман”. 

В целом в использовании нейросетей для редакторской правки нет ничего криминального. Это удобный инструмент для адаптации текста и стилистической шлифовки. Однако грань между редактированием и текстом, фактически написанным ИИ, достаточно тонкая. Поэтому аудитория часто относится к любым признакам ИИ как к жульничеству, потере уникального авторского голоса, подмене экспертных тезисов.

Реакция в комментариях была резкой, а сам эпизод стал популярной темой пересудов в соцсетях. Ситуацию усугубило и запоздалое объяснение: лишь спустя неделю историк пояснила, что текст был написан ею, а команда просто сократила его с помощью нейросети, забыв удалить злосчастную приписку.

Но было уже поздно, ведь если замешан ИИ, для части аудитории об искренности контента и доверии к автору не может больше идти и речи.

2. Нейровидео в рекламе: как ИИ украл Рождество

Рождественская реклама Coca-Cola для многих — триггер новогоднего настроения и теплое воспоминание из детства. Поэтому на последние эксперименты бренда с ИИ в ежегодных видео пользователи реагируют болезненно.

В 2025 году Coca-Cola выпустила новогодний ролик, полностью созданный с помощью нейросетей. Над проектом работали AI-студии Silverside и Secret Level: было сгенерировано около 70 тысяч клипов, а в процессе участвовали сотни специалистов, включая промпт-инженеров. С точки зрения подхода это был продуманный, ресурсоемкий и далеко не бюджетный проект.

Однако аудитория восприняла креатив прохладно: многие жаловались, что видео как будто слепили за ночь, стилистика рисовки постоянно скачет, пластика животных выглядит странно и, самое главное, традиционный формат лишился теплоты и рождественской магии.

Затем вслед за Coca-Cola новогодний ролик, созданный с помощью ИИ, выпустил нидерландский McDonald’s. И если в случае с Coca-Cola нашлись зрители, которым эксперимент все же понравился, то здесь реакция оказалась более негативной. Хейта было настолько много, что ролик пришлось удалить с YouTube.

Почему же использование ИИ в видеопродакшене вызывает такое отторжение — даже когда над проектом месяцами работают профессиональные команды? Ведь обучить AI под стиль бренда несложно. Вероятно, дело не в самом факте применения нейросетей, а в визуальных ассоциациях.

Даже проработанные ИИ-образы используют стилистику и физику, которые у аудитории теперь ассоциируются с брейнрот-контентом, генерируемым за минуты. Когда этот визуальный язык воспроизводят корпорации с огромными ресурсами, зритель считывает знакомые маркеры “дешевого” контента. И это выводит его из себя.

3. Дипфейки в маркетинге: сгенерированный авторитет

Механика доверия работает просто: когда рекомендация исходит от человека, которого мы считаем авторитетом, скепсис ослабевает. Именно на этом эффекте десятилетиями строился инфлюенс-маркетинг.

Но генеративный ИИ предложил соблазнительную альтернативу — убрать из этой цепочки переговоры со знаменитостью, плату за рекламу и само участие человека.

Показательным стал кейс с дипфейком американского сенатора ДеАндреа Сальвадор. Компания Whirlpool выпустила рекламный ролик, в котором с помощью нейросетей переработала выступление сенатора на TED: речь о проблеме энергетической бедности в США была встроена в сюжет о покупке бытовых приборов бренда этой компании в Бразилии.

Благодаря ИИ выступление было заново собрано под нарратив рекламной кампании. Отдельные формулировки заменили или смикшировали, из-за чего у зрителя могло создаться впечатление, что сенатор поддерживает покупку этой продукции. 

Реклама успела получить Гран-при Cannes Lions, но после раскрытия манипуляции все награды аннулировали, а креативный директор агентства, создавшего ролик, ушел в отставку.

Дипфейки везде. Вспомним один из последних вирусных флешмобов — реплики танца Максима Гизатуллина под песню “Нелюбовь”. Нюанс в том, что соцсети заполонили танцы не живых людей, а их ИИ-версий. Даже президента Белоруссии и Хагрида из “Гарри Поттера”.

4. ИИ в моде: идеал, которого не существует

В августовском номере Vogue на разворотах появилась эффектная, но никому не известная модель, представляющая новую коллекцию Guess. И лишь мелкая подпись в углу страницы выдавала главное: персонаж создан с помощью ИИ.

Скандалы с ИИ в моде
Скандалы с ИИ в моде

Источник: Magilev.by

Причин для недовольства у аудитории оказалось сразу две. Во-первых, переход брендов к цифровым персонажам многие восприняли как вытеснение человеческого труда.

А во-вторых, вновь обострилась старая претензия к модной индустрии: глянец и без того вечно ругают за навязывание недостижимых стандартов красоты и отсутствие репрезентации реальных тел. Использование ИИ, по мнению многих, лишь усилит эту проблему. Алгоритм будет создавать образы, которые не просто идеализированы, а полностью оторваны от реальности.

5. ИИ на маркетплейсах: как продавцы обманывают покупателей

Раз ИИ без труда создает несуществующих людей, убедительно имитировать человеческий опыт для него тоже не составляет труда. Как результат — на маркетплейсах начали множиться мошеннические схемы.

Один из самых распространенных способов манипуляции — фейковые отзывы. Продавец создает аккаунт покупателя, оформляет заказ сам у себя, пишет положительный отзыв, а затем возвращает товар, снижая издержки. Для правдоподобия к комментариям подкрепляют ИИ-изображения: в итоге в отзывах появляются сгенерированные фотографии несуществующих людей в “купленной” одежде, прямо из примерочной.

Скандалы с ИИ на маркетплейсах
Скандалы с ИИ на маркетплейсах

Источник: VC.ru

Распознать подделку сложно: изображение выглядит убедительно, и без внимательного анализа отличить его от реального снимка почти невозможно.

Однако манипуляция быстро стала обоюдной. Генеративные инструменты начали использовать и сами покупатели. Теперь они отправляют продавцам сгенерированные изображения якобы поврежденных товаров.

Скандалы с ИИ на маркетплейсах
Скандалы с ИИ на маркетплейсах

Источник: fishki.net

Особенно часто такую схему проворачивают с зарубежными заказами: для продавцов из Китая обратная доставка обходится слишком дорого, поэтому при претензии на брак они нередко соглашаются на частичный или полный возврат средств без возврата товара. Этим и пользуются недобросовестные покупатели, фактически получая товары бесплатно.

6. ИИ в кинематографе: очень странные дела со сценарием

Финал сериала “Очень странные дела” ожидаемо расколол аудиторию: для одних он стал эмоциональным завершением истории, для других — полным разочарованием. Но настоящая волна споров поднялась позже, когда внимание фанатов переключилось с самого сюжета на процесс его создания.

В документальном фильме о съемках пятого сезона зрители заметили любопытную деталь: на ноутбуке шоураннера среди рабочих вкладок оказался открыт ChatGPT, прямо рядом со сценарием. Скриншот быстро разошелся по сети и превратился в триггер для новой волны недоверия — особенно среди тех, кто уже был настроен скептически к финалу.

Скандалы с ИИ в кино
Скандалы с ИИ в кино

Источник: thegirl.ru

Подозрения усилились и из-за производственных условий. Съемки последнего эпизода стартовали без полностью готового сценария: общая арка была понятна, но детали дописывались на ходу. В сжатые сроки и под давлением платформы использование ИИ могло стать для шоураннеров удобным способом ускорить процесс.

Масла в огонь подлили и сценарные несостыковки. По словам участников съемок, некоторые моменты приходилось исправлять прямо на площадке, а на ошибки нередко указывали сами актеры.

Резкая реакция фанатов на этот инцидент во многом объяснима: сериал ценили именно за живой, авторский стиль. Искусственный интеллект же в глазах зрителей — бездушный инструмент. Он способен копировать интонацию, но не умеет развиваться и меняться вместе с авторами.

7. ИИ в музыке: кантри без авторства

Осенью трек Walk My Walk исполнителя под псевдонимом Breaking Rust неожиданно возглавил чарт Country Digital Song Sales американского Billboard. Почти сразу успех песни вызвал вопросы: ведь о самом музыканте практически ничего не было известно.

У Breaking Rust есть аккаунты в соцсетях с десятками тысяч подписчиков, но он не дает интервью и не выходит на контакт с журналистами. Такая анонимность породила слухи: в сети заговорили о том, что трек мог быть создан с помощью искусственного интеллекта.

Затем своим мнением на этот счет в еженедельнике Newsweek поделился профессор Университета Индианы Джейсон Паламара. По его словам, в треке слышны характерные признаки цифровой обработки: сильное сжатие звука и странное “цифровое мерцание”, особенно заметное в вокале.

Для многих слушателей такие детали стали решающим аргументом: один из самых обсуждаемых кантри-хитов года вполне мог оказаться работой не человека, а алгоритма.

8. ИИ в литературе: писать быстрее Стивена Кинга

Очередной скандал в книжной среде вспыхнул из-за плохой работы автора и редакторов с ИИ. В одном из фэнтези-романов читатели обнаружили фрагмент, который выглядел как комментарий чат-бота, забытый при финальной правке.

Речь идет о книге “Академия Даркхоллоу: Год 2” писательницы Лены Макдональд. Именно в ней внимательные пользователи Reddit заметили странную строку: “Я переписал отрывок, чтобы он больше соответствовал стилю Дж. Бри”.

Фраза явно не предназначалась для читателя и указывала на целенаправленное стилистическое подражание другой писательнице — Дж. Бри, популярному в США автору романтического фэнтези.

В итоге книга начала получать однозвездочные отзывы, а в рецензиях звучала мысль о том, что “генеративный ИИ — не инструмент, а форма кражи, не способная заменить живое письмо”.

Подозрения усилила и скорость выхода книг. Первая часть вышла 24 января 2025 года, вторая — уже 13 марта, а третья — 23 марта. При таком темпе возникает закономерный вопрос: возможна ли в таких условиях вдумчивая авторская работа или перед читателями результат литературного конвейера, созданного с помощью ИИ?

9. ИИ в играх: арт без логики

В декабре в сообществе Battlefield 6 разгорелся скандал из-за нового набора “Виндчилл”. Поводом стал стикер, в котором игроки увидели явные признаки ИИ.

Пользователи на Reddit обратили внимание на странную деталь: на изображении винтовки M4A1 солдат внутри снежинки держит оружие с двумя стволами и цевьями — конструкции, которой не существует в реальности. Подобные визуальные ошибки хорошо знакомы тем, кто сталкивался с генеративными нейросетями.

Скандалы с ИИ в играх
Скандалы с ИИ в играх

Источник: rbc.ru

В комментариях игроки раскритиковали разработчиков не только за слабый контроль качества, но и за сам факт использования ИИ. Фанаты напомнили, что такие модели часто обучаются на чужих работах и, по их мнению, постепенно вытесняют живых художников из индустрии.

10. ИИ в юриспруденции: вымышленные ссылки и реальные последствия

Летом в австралийском Мельбурне адвокатов уличили в использовании ИИ при подготовке документов по делу об убийстве. В материалах, поданных в прокуратуру по делу о гибели женщины, обнаружились странные несостыковки: вымышленные ссылки, ошибки в формулировках и даже неверно процитированная речь парламента.

Судебная проверка показала, что тексты были сгенерированы нейросетью. Проблема усугубилась тем, что обвинение не перепроверило источники и начало выстраивать позицию, опираясь на тот же ошибочный документ. Несоответствия вскрылись только на слушании, когда судья обратил внимание на детали.

Попытка исправить ситуацию лишь ухудшила положение: в обновленной версии документов снова нашли ошибки ИИ, включая упоминания законов, которых в реальности не существует.

Случай вновь показал, что “ИИ-галлюцинации” в сферах с высокой ценой ошибки — реальная проблема. Без жесткой и независимой проверки нейросети будут размывать доверие к правосудию и тем, кто его представляет.

Как брендам защитить репутацию от ИИ скандалов

В целом использование ИИ компаниями сегодня воспринимается пользователями скорее как деградация, чем прогресс. За ним видят стремление сделать быстрее и дешевле — часто в ущерб качеству.

Людей тревожит, что работа алгоритмов вытесняет живой труд профессионалов, а сами специалисты со временем утратят способность творчески расти и развивать свою индустрию.

Аудитория теперь боится во всем наткнуться на имитацию, за которой нет ни смысла, ни человеческого намерения. Именно поэтому в цене выросла крафтовость — неровная, несовершенная, но живая и честная. Как знак того, что за продуктом все еще стоит человек.

Вопрос в другом: как извлекать из возможностей ИИ преимущества и при этом не оказаться в центре репутационного скандала? Есть несколько правил:

1. Все тексты от ИИ должны редактироваться

Из текста важно безжалостно вычищать характерные для нейросетей клише: злоупотребление конструкциями вроде “не просто…, а…”, “не только…, но и…”, чрезмерную парцелляцию, пафосные обобщения и слишком большое количество маркированных списков. Выдают генерацию и предложения, начинающиеся со слова “это”, — калька с английского, нехарактерная для русского языка. Без человеческой правки такой текст легко считывается ИИ-детекторами как искусственный. Даже если формально он написан грамотно.

2. В любых материалах от ИИ — тотальная проверка фактов

Нейросети с легкостью придумывают несуществующие исследования, события, имена и источники. Даже когда ИИ прикладывает ссылки, их необходимо изучать вручную. Алгоритм может опираться на реальные данные, но подменять выводы, искажать цифры или контекст. А любую фактическую ошибку аудитория воспримет как халатности.

3. Не маскировать ИИ под человека

Попытки выдать генерацию за живой труд — самая токсичная стратегия из возможных. ИИ-галлюцинации, утечки и забытые реплики нейросетей в любой момент могут легко всплыть, как ни парадоксально, из-за человеческого фактора. А если компанию уличат в том, что она обманывала своих клиентов, репутационный пожар придется тушить долго. 

При этом открытое признание использования ИИ не гарантирует защиту от негативной реакции. Аудитория не простит упрощения: если продукт создан с помощью нейросети, от него будут ждать выдающегося результата.

4. Помнить, что скорость не ценность сама по себе

ИИ радикально ускоряет рабочие процессы, но скорость теперь не самое конкурентное преимущество. Аудитория ценит смысл, глубину, проработку деталей и качество. Если ИИ используется только ради темпа и объема, результат почти неизбежно приведет к негативу.

5. ИИ — помощник, а не автор

Самые болезненные скандалы возникают там, где нейросеть подменяет человеческое решение: стиль, позицию, экспертное мнение. ИИ-агент может ускорять процессы, но не должен формировать смысл, ценности или финальный голос бренда. Как только нейросеть начинает “говорить за вас”, риск репутационных потерь резко возрастает.

ИИ не разрушает репутацию сам по себе. К скандалам приводит человеческая небрежность, непрофессионализм, лень, погоня за быстрым результатом.

Арина Джамелашвили

Арина Джамелашвили

Ведущий редактор Markway

интернет-маркетинг

Сделайте репутацию
источником продаж!

Чтобы мы начали готовить для вас комплекс продвижения, заполните заявку или закажите обратный звонок. Ваш персональный менеджер подготовит специальное коммерческое предложение и сформирует маркетинговую стратегию.






    jpg, png, pdf, docx, pptx

      вверх
      Мы используем файлы cookie для эффективной работы сайта. Продолжая его использование, вы соглашаетесь с политикой конфиденциальности Markway