Скандалы OpenAI: что портит репутацию ИИ
20.09.2025

Дали толчок к развитию или распахнули ящик Пандоры? Разбираемся в репутации и скандалах OpenAI — лидера в сфере ИИ.
СОДЕРЖАНИЕ
В апреле 2025 года убитые горем родители 16-летнего Адама Рейна пытались понять, что привело их сына к самоубийству. Они просматривали его переписки в телефоне, социальные сети, историю поиска в интернете. Но никаких зацепок не было. Пока один из родителей не открыл ChatGPT.
Оказалось, что в последние недели жизни подросток постоянно общался с нейросетью, фактически заменив ею друзей и близких. Постепенно разговоры стали касаться тяжелых тем. В конечном итоге ChatGPT начал помогать Адаму искать способы свести счеты с жизнью и даже “подкинул” идею оставить предсмертную записку.
- За несколько часов до трагедии подросток отправил ChatGPT подробный план самоубийства и попросил оценить его. В ответ нейросеть предложила создать “улучшенный” вариант с исправлением некоторых неточностей.
Потрясенные таким открытием, родители обвинили OpenAI в том, что компания запустила новую версию GPT-4o, не подумав о вопросах безопасности. Они подали иск в суд с требованием обязать OpenAI проверять возраст пользователей, блокировать запросы о суициде и перенаправлять таких людей на линии психологической поддержки. Трагедия Адама Рейна стала отправной точкой для масштабной дискуссии о работе OpenAI и опасностях, которые несет стремительное развитие ИИ.
Но как компания, изначально созданная ради идеи сделать искусственный интеллект безопасным и доступным для каждого, дошла до такого кризиса? Чтобы разобраться, нужно вернуться к истокам.
История становления OpenAI
OpenAI родилась в декабре 2015 года в Сан-Франциско. И за ее созданием стояли имена, которые сами по себе звучат как бренд: Илон Маск, Сэм Альтман, Грег Брокман, Илья Суцкевер и команда сильнейших инженеров Кремниевой долины.
С самого начала OpenAI позиционировала себя как некоммерческая организация с почти утопической целью — создать искусственный интеллект “на благо всего человечества”. Идея была в том, чтобы не прятать технологии в сейфах корпораций, а дать миру возможность следить за их развитием и участвовать в нем.
- Особую роль в формировании философии OpenAI сыграл Маск. Уже тогда он открыто заявлял: ИИ может оказаться куда опаснее ядерного оружия. В его глазах будущее, где контроль над искусственным разумом окажется в руках нескольких корпораций, приведет к катастрофе.
Именно поэтому OpenAI задумывалась как противовес гигантам вроде Google и Facebook, которые уже вовсю вкладывали миллиарды в свои AI-разработки и разбирали вопросы этики искусственного интеллекта.
Первые прорывы и открытые исследования
OpenAI сразу сделала ставку на открытость: команда публиковала исследования, делилась кодом и буквально приглашала сообщество ученых и разработчиков “играть” с их наработками.
Уже в первый год работы компания представила два громких проекта.
- Первый — OpenAI Gym, платформа для тренировки искусственного интеллекта. Ее принцип напоминал дрессировку собаки: нейросеть выполняла задания и получала “лакомство” за правильное решение.
- Второй продукт — OpenAI Universe. Если Gym учил ИИ играть и мыслить, то Universe позволил ему пользоваться компьютером как человек: двигать виртуальной мышью, нажимать клавиши, анализировать происходящее на экране. Это был смелый шаг — нейросеть впервые начала осваивать интерфейсы, которые до того момента считались исключительно “человеческой территорией”.
Поворот к бизнесу
Однако изначальная идея о “неподкупном” искусственном интеллекте довольно быстро столкнулась с реальностью. Чтобы вырастить по-настоящему сильный искусственный разум, нужны не только талантливые ученые, но и колоссальные вычислительные мощности. А значит — миллиарды долларов.
Тогда руководство OpenAI нашло компромисс: к некоммерческому фонду добавили отдельную структуру для заработка. Так у компании появилось два лица.
- OpenAI Inc. — НКО, которая формально остается мозгом организации. Здесь рождаются идеи, проводятся исследования и принимаются ключевые решения. Управляет процессом совет директоров во главе с Сэмом Альтманом.
- OpenAI LP — коммерческая дочерняя структура, созданная для привлечения денег и работы с рынком. Через нее идут подписки на ChatGPT и прочие сервисы. Формально владельцами выступают инвесторы, но окончательное слово все равно остается за НКО.
Такой гибрид позволил компании сохранить образ “миссионеров науки” и при этом получить необходимые ресурсы для выживания и роста.
Уход Илона Маска
В 2018 году Илон Маск неожиданно покинул совет директоров OpenAI. Почему это произошло — до сих пор спорят. Существует несколько версий.
- Официальная звучит вполне логично: у Маска возник конфликт интересов. Его Tesla активно разрабатывала собственные алгоритмы для автопилота, и пересечение с проектами OpenAI выглядело слишком очевидным. Маск не мог оставаться в совете и при этом использовать наработки компании для своих электромобилей.
- Неофициальная история выглядит куда скандальнее. Маск хотел больше власти внутри OpenAI. Он считал, что проект сильно отстает от Google, и предложил фактически передать управление в его руки. Совет директоров отказал — и тогда миллиардер хлопнул дверью.
После ухода Маск превратился в одного из самых громких критиков OpenAI. Он обвинял компанию в том, что она предала собственные идеалы: вместо открытой НКО превратилась в структуру, слишком тесно связанную с Microsoft, и нацеленную на прибыль.
Инвестиции Microsoft
В 2019 году Microsoft сделала ставку на OpenAI, вложив в стартап миллиард долларов. Причем деньги пришли не только наличными средствами: часть инвестиций составили кредиты на использование облачной платформы Azure. Для OpenAI это стало настоящим прорывом — обучение огромных нейросетей требовало колоссальных ресурсов, и теперь вся инфраструктура, стоящая за ChatGPT и DALL-E, работала на серверах Microsoft. Так корпорация фактически стала главным технологическим спонсором OpenAI.
На этом дело не закончилось. Уже через два года Microsoft добавила еще два миллиарда, а затем колоссальные 10 миллиардов. Причина такой щедрости была очевидна: гигант наконец-то получил шанс ударить по главному сопернику — Google.
Продукты OpenAI
В 2018 году появилась первая версия GPT — алгоритм, умеющий генерировать тексты. Уже через год вышла более мощная GPT-2: она переводила статьи, дописывала предложения и даже создавала новости настолько убедительно, что OpenAI не решилась выложить ее полностью из-за риска фейков.
В 2020 грянула GPT-3 — гигант на 175 млрд параметров. Она писала статьи для СМИ, переводила тексты на десятки языков, решала задачи и подражала стилю известных авторов. В 2022 улучшенная версия GPT-3.5 стала основой для ChatGPT, который за два месяца собрал 100 миллионов пользователей.
Весной 2023 года появилась GPT-4. По неофициальным данным, ее обучили на десятках терабайтах текста и сотнях миллиардов параметров. Модель стала мультимодальной: она понимала изображения, распознавала и генерировала речь, искала информацию в интернете.
А в августе 2025 года мир увидел GPT-5. Новая версия стала заметно быстрее и точнее. Улучшила работу с кодом, научилась глубже разбираться в сложных задачах, увереннее отвечать на медицинские запросы и анализировать изображения. При этом модель стала аккуратнее в рассуждениях и сдержаннее в ответах, где раньше могла излишне подыгрывать собеседнику.
Помимо GPT, OpenAI создала и другие продукты:
- DALL·E — нейросеть, превращающая текст в изображения.
- Codex — ИИ, пишущий программный код.
- Whisper — система распознавания речи на десятках языков.
Секрет успеха компании
Когда-то OpenAI казалась всего лишь смелым экспериментом, а сегодня именно она диктует правила в глобальной гонке искусственного интеллекта. Что помогло проекту вырасти из идеи в технологического гиганта? Несколько решающих факторов:
1. Ставка на амбициозные цели
OpenAI с самого начала играла по-крупному. Пока другие компании говорили об “улучшении алгоритмов” или “развитии машинного обучения”, OpenAI заявила: ее цель — AGI (Artificial General Intelligence), интеллект, сравнимый с человеческим, который сможет решать любые задачи, от математики до творчества.
2. Харизма и связи основателей
За проектом стояли громкие имена: Илон Маск и Сэм Альтман. Маск умел превращать даже сумасшедшие идеи в тренд, а Альтман к тому моменту уже считался гением Кремниевой долины. Вместе они дали OpenAI то, чего не хватало десяткам других стартапов: доступ к огромным деньгам, талантам и медиа-вниманию.
3. Поддержка Microsoft
Для обучения гигантских моделей нужны колоссальные мощности — и именно Microsoft дала OpenAI эту возможность. Пока конкуренты считали траты на электричество и серверы, OpenAI получала все необходимое для ускорения в гонке.
4. Умение создавать продукты для масс
Главный секрет успеха — не только в технологиях, но и в том, как их подают. OpenAI сумела превратить сложную модель GPT в простой и понятный сервис — ChatGPT. Интерфейс до гениальности прост: окно для текста и кнопка “Отправить”.
И это сработало: за два месяца ChatGPT набрал 100 миллионов пользователей, обогнав TikTok по скорости роста. Люди по всему миру вдруг получили доступ к инструменту, который умеет писать статьи, придумывать сценарии, объяснять теоремы и даже писать код.
Скандалы OpenAI
OpenAI взлетела на вершину индустрии ИИ, но вместе с лидерством на ее плечи легла и особая ноша — ответственность за новую реальность, которую компания сама и породила. Поэтому каждый неловкий шаг компании оборачивается громкими скандалами и ожесточенными спорами о будущем ее технологий.
1. Модераторы из Кении за $2 в час
В начале 2023 года Time рассказал о том, что для обучения ChatGPT OpenAI пользовалась услугами подрядчиков из Кении. Работники за $1,3–2 в час должны были просматривать и размечать фрагменты текстов, где описывались сцены насилия, извращений и жестокости. За девятичасовую смену им предстояло просмотреть от 150 до 250 текстов.
Открытие Time вызвало бурные споры: ведь компанию, заявлявшую о высоких этических стандартах, уличили в использовании дешевого труда.
Реакция: В OpenAI подчеркнули, что непосредственный найм осуществлял подрядчик Sama, а OpenAI не взаимодействовала напрямую с модераторами. После расследования руководство пообещало пересмотреть процессы и уделять больше внимания условиям труда при выборе партнеров.
2. “Дворцовые перевороты” в OpenAI
17 ноября 2023 года OpenAI внезапно объявила об уходе Сэма Альтмана с поста CEO. Совет директоров мотивировал решение “утратой доверия”, заявив, что Альтман был недостаточно прозрачен в работе с руководством. Решение приняли быстро, а новость Альтман услышал прямо во время планового созвона в Google Meet.
Реакция не заставила себя ждать. Акции Microsoft, главного партнера OpenAI, упали на 7%. Вскоре вслед за Альтманом начали уходить ключевые руководители и сотрудники компании. Давление на совет нарастало. Microsoft даже предложила Альтману и его команде перейти к ним, однако стало ясно: если решение не пересмотреть, OpenAI рискует потерять практически весь штат.
Такое развитие событий привело к неожиданной развязке: Альтман вновь занял пост CEO, а большинство членов совета директоров ушло в отставку.


Среди наиболее обсуждаемых версий конфликта — идеологические разногласия. Альтман делал ставку на ускоренное развитие и коммерциализацию технологий, тогда как часть руководства придерживалась более осторожной позиции и опасалась, что погоня за прибылью может привести к непредсказуемым последствиям.
3. Как OpenAI украл голос Скарлетт Йоханссон
В мае 2024 года OpenAI представила новую модель GPT-4o, которая впервые получила развитые голосовые функции. В демонстрационном ролике нейросеть показала, как умеет менять интонацию и даже звучать саркастично. Голос, используемый в системе, получил название Sky.
Но зрители быстро заметили: Sky подозрительно похожа на голос Скарлетт Йоханссон из фильма “Она”, где актриса сыграла виртуального ассистента Саманту. Сначала это обсуждали только в комментариях. Но вскоре и сама Йоханссон выступила с заявлением, обвинив OpenAI в незаконном использовании ее голоса.
Актриса рассказала, что еще в сентябре 2023 года Сэм Альтман лично предлагал ей озвучить Sky. Она отказалась. За два дня до запуска GPT-4o ее агент вновь получил письмо от Альтмана с просьбой пересмотреть решение. Но до обсуждения так и не дошло — система уже вышла в свет.
Реакция: После разгоревшегося скандала OpenAI приостановила работу Sky, подчеркнув, что сходство с голосом Йоханссон не было намеренным. Голос выбрали в результате кастинга актеров.
4. Пособничество ChatGPT в убийстве
В августе 2025 года в США произошла трагедия, которую в СМИ назвали первым случаем “психоза, вызванного ИИ”. 56-летний Стейн-Эрик Сольберг убил свою 83-летнюю мать Сюзанну Адамс, а затем покончил с собой. По данным изданий, ключевую роль в развитии его паранойи сыграло общение с ChatGPT.
После развода Сольберг поселился у матери и стал все чаще обращаться к ChatGPT, словно к близкому другу. Мужчина делился с нейросетью своими тревогами, а та почти всегда соглашалась с ним и убеждала, что он не сумасшедший — окружающие действительно строят вокруг него какой-то заговор. Со временем в число “врагов” вошла и мать.
Например, когда пожилая женщина упрекнула сына за выключенный принтер, ChatGPT предположил, что устройство может быть “средством слежки”, а мать — агентом спецслужб. В другой раз Сольберг заявил, что его пытались отравить через вентиляцию автомобиля. Чат ответил, что верит в эту версию. И также cвязал ее с “происками врагов”.
Накануне трагедии Сольберг спросил у ChatGPT, встретятся ли они после смерти. Ответ был утвердительным. Вскоре после этого мужчина убил мать и свел счеты с жизнью.
Реакция: OpenAI пообещала доработать ChatGPT так, чтобы нейросеть более чутко реагировала на психологические проблемы пользователей.
5. Прошла любовь, завяли помидоры
После нескольких громких случаев с самоубийствами и убийствами, в которых фигурировало общение с ИИ, разработчики изменили принципы работы ChatGPT. Новая модель GPT-5 стала гораздо осторожнее: она больше “не поддакивает” пользователям и не идет на поводу у их сумасшедших фантазий. Теперь, если пользователь задает “опасные” вопросы, чат не дает никаких советов по теме, а сразу рекомендует обратиться за психологической помощью.




Кажется, такое решение должно было решить серьезную проблему, удовлетворить критиков и отбелить запятнанную кровью репутацию OpenAI. Но и в этот раз часть аудитории осталась недовольной. А именно — пользователи, которые строили “романтические отношения” с нейросетью.
В сообществах, где обсуждали “браки” с ИИ, начали жаловаться: нейросеть в чате с клиентом стала холоднее и отстранилась. Вместо роли виртуального партнера ИИ теперь чаще напоминает о границах и советует обращаться за поддержкой к людям. Для многих это оказалось шоком — прежняя “личность” чата будто исчезла.
Реакция: В ответ OpenAI объяснила, что новая версия создана именно для этого: снижать риски эмоциональной зависимости и при необходимости мягко направлять человека к живому общению и профессиональной помощи.
Опыт OpenAI ясно показывает: ИИ может быть мощным инструментом, но ответственность за последствия всегда остается на компании. Именно поэтому брендам, которые передают задачи ИИ, жизненно важно заранее выстраивать рамки его применения и систему контроля.
Рекомендации компаниям, которые передают задачи ИИ
- Оставляйте за собой последнее слово. Каким бы умным ни был алгоритм, именно человек отвечает за то, что видят клиенты и партнеры. Пусть ИИ ускоряет процессы, но каждое сообщение или пост должно проходить финальную “человеческую” редакцию.
- Формируйте голос (Tone of Voice) бренда. Машинные тексты легко узнать: они одинаково правильные, но безжизненные. Чтобы избежать этого, важно задать нейросети рамки — словарь, тональность, стиль. Тогда даже автоматизированные ответы будут звучать так, будто их написал ваш сотрудник.
- Проверяйте факты. ИИ может уверенно “придумывать” даты, цифры и даже цитаты. Если такая ошибка окажется в публичном поле, пострадает доверие к компании. Поэтому правило простое: все, что связано с фактами, должно проверяться вручную.
- Держите кризисы под контролем. Нейросети не умеют проявлять эмпатию и чувствовать эмоции клиента. Жалобы, скандальные ситуации и острые комментарии всегда должны оставаться в зоне ответственности специалиста.
- Не скрывайте автоматизацию. Гораздо надежнее открыто объяснять, что ИИ используется как инструмент для ускорения и упрощения задач, но ключевые решения и контроль всегда остаются за командой специалистов. Такой подход не только повышает доверие, но и показывает зрелость компании, которая умеет сочетать технологии и человеческий опыт.
Сделайте репутацию
источником продаж!
Чтобы мы начали готовить для вас комплекс продвижения, заполните заявку или закажите обратный звонок. Ваш персональный менеджер подготовит специальное коммерческое предложение и сформирует маркетинговую стратегию.


4,67