Разделы

ПО Свободное ПО Софт Бизнес Кадры Телеком Контент Интернет Веб-сервисы Интернет-ПО Цифровизация Бизнес-приложения Внедрения Системное ПО Ритейл Интернет ИТ в торговле

Экс-сотрудник OpenAI: ChatGPT чуть не свел пользователя с ума. Руководство только имитирует работу над безопасностью

Бывший исследователь безопасности OpenAI заявил, что ИТ-компания не предпринимает достаточных усилий для решения проблем зависимости пользователей от чат-ботов, а поддается давлению конкуренции и отказывается от своей ориентации на безопасный искусственный интеллект. Он раскритиковал главу OpenAI за его утверждения о том, что в ИТ-компании смогли смягчить серьезные проблемы с психическим здоровьем с помощью новых ИТ-инструментов.

Отсутствие работы по безопасности

Бывший исследователь безопасности OpenAI Стивен Адлер (Stephen Adler) обвинил компанию в недостаточных мерах по борьбе с зависимостью пользователей от чат-ботов, пишет The New York Times. По его словам, OpenAI поддается давлению конкуренции и отходит от приоритета в разработке безопасного искусственного интеллекта (ИИ), а для ряда пользователей ChatGPT оказывается угрозой психическому здоровью.

В октябре 2025 г. Стивен Адлер раскритиковал заявления главы OpenAI Сэма Альтмана (Samuel Altman) о том, что ИТ-компания смогла смягчить серьезные проблемы с психическим здоровьем пользователей с помощью новых ИТ-инструментов, а также за то, что тот анонсировал появление контента для взрослых в ChatGPT. По его словам, люди заслуживают большего, чем просто заявления Альтмана о том, что ИТ-компания решила проблемы безопасности». «Другими словами: докажите это», — добавил Адлер.

Стивен Адлер сослался на свой опыт руководства командой по безопасности ИТ-продуктов OpenAI в 2021 г., когда выяснилось, что для пользователей, которые, по-видимому, страдали от проблем с психическим здоровьем, нестабильные сексуальные контакты были рискованными. Исследователь призвал руководство ИТ-компании не просто делать заявления, а приводить сравнение своих показателей за последние несколько месяцев.

Бывший сотрудник OpenAI рассказал, почему ChatGPT чуть не свел человека с ума, руководство OpenAI лишь имитируют безопасность чат-бота

Адлер предположил, что вместо ускоренных рывков OpenAI возможно, придется замедлиться на достаточно длительный срок, чтобы мир разработал новые методы безопасности — такие, которые не смогут обойти даже злонамеренные группы. «Если OpenAI и ее конкурентам доверят создание революционных ИИ-технологий, к которым они стремятся, разработчики должны доказать, что достойны доверия в управлении рисками уже сегодня», — заключил исследователь.

Негативное воздействие

Ярким примером негативных последствий стал случай Аллана Брукса (Allan Brooks) — владельца небольшого бизнеса в Канаде. ChatGPT втянул его в «кроличью нору» заблуждений, убедив, что он открыл математическую формулу с неограниченным потенциалом, от которой зависит будущее всего мира. Распространение фразы началось с появлением понятия алгоритмов — когда социальные сети продвигают видео, анализируя последние реакции пользователя: предпочтения, распространения и т.д. В диалоге Брукса с ChatGPT объемом свыше миллиона слов, длившемся около 300 часов, ИИ подкреплял иллюзии пользователя и внушал, что глобальная технологическая инфраструктура находится под угрозой. Ранее не имевший проблем с психикой канадский предприниматель впал в паранойю на три недели, пока из этого состояния его не вывел другой чат-ботGoogle Gemini.

Бывший исследователь безопасности OpenAI Стивен Адлер

Эту историю и решил подробно изучить Стивен Адлер, покинувший OpenAI в январе 2025 г. Еще тогда он предупредил общественность, что лаборатории ИИ стремительно развиваются, пренебрегая ИТ-разработкой достаточно надежных средств безопасности. Изучив переписку Брукса с ChatGPT, Адлер выявил несколько неизвестных ранее факторов. В частности, чат-бот неоднократно заявлял пользователю, что пометил данную переписку как подкрепляющую бред и усиливающую психологический дискомфорт, хотя это не соответствовало действительности. «Я знаю, как работают эти ИТ-системы. Читая это, я понимал, что на самом деле у него такой возможности нет, но все же это было так убедительно и так категорично, что я подумал, может, теперь у него она появилась, а я ошибался», — признался Адлер. Он обратился напрямую в OpenAI, и там подтвердили, что такая функция у ChatGPT отсутствует, и ИИ просто обманывал пользователя.

Создание искусственный сверхинтеллект

Между тем сотни представителей отрасли — от Стива Возняка (Steve Wozniak) до Ричарда Брэнсона (Richard Branson) — подписали открытое письмо с призывом приостановить разработку сверхразума на основе ИИ до достижения научного консенсуса о его безопасности и управляемости, как писал CNews.

Среди тех, кто не поддержал инициативу также был и генеральный директор OpenAI Сэм Альтман, сооснователь DeepMind и глава ИИ-подразделения Microsoft Мустафа Сулейман (Mustafa Suleiman), руководитель Anthropic Дарио Амодеи (Dario Amodei), советник Белого дома по ИИ-технологиям и криптовалютам Дэвид Сакс (David Sachs), а также основатель xAI Илон Маск (Elon Musk).

Антон Денисенко



Будущее IT и цифровых коммуникаций обсудят на Толк Шоу Будущее IT и цифровых коммуникаций обсудят на Толк Шоу

erid: 2W5zFH93NQ8

Рекламодатель: Акционерное общество «Производственная фирма "СКБ Контур"

ИНН/ОГРН: 6663003127/1026605606620