Разделы

ПО Софт Бизнес Кадры Телеком Контент Интернет Веб-сервисы Интернет-ПО Интернет-доступ Цифровизация Бизнес-приложения Внедрения Ритейл Интернет Розница ИТ в торговле

Илон Маск потребовал у сотрудниц xAI предоставить внешность и голоса для обучения чат-бота

Основатель xAI распорядился использовать биометрические данные сотрудниц компании т.е. внешность и голос для обучения гиперсексуализированного чат-бота. Согласно расследованию The Wall Street Journal, сотрудницы были вынуждены подписать соглашение, передающее ИТ-компании бессрочные права на их цифровые образы.

Сдача биометрии в добровольно-принудительной форме

Предприниматель и генеральный директор xAI Илон Маск (Elon Musk) приказал сотрудницам xAI сдать биометрию для обучения чат-бота Ani, пишет The Wall Street Journal. В том числе изображения лиц и записи голосов. Это позволит быстрее интегрировать Ani в генеративный чат-бот на основе искусственного интеллекта (ИИ) Grok.

По информации The Wall Street Journal, разработка чат-бота Ani началась на фоне цифровой гонки по разработке практически разумного общего ИИ (AGI — раздел теоретических ИИ-исследований, направленный на разработку ИИ с когнитивными функциями человеческого уровня, включая способность к самообучению).

До начала ИИ-гонки в ИТ-индустрии сотрудникам xAI были представлены аватары, которые будут использоваться для общения с пользователями Grok. Биометрические данные сотрудников должны помочь научить чат-ботов вести себя и говорить как люди. Сам же проект вызвал беспокойство у некоторых сотрудниц xAI из-за возможной утечки их данных. Однако активное участие в сборе и предоставлении данных является обязательным требованием для развития xAI.

Предприниматель и генеральный директор xAI Илон Маск

Уже с момента запуска летом 2025 г. чат-бота Ani количество пользователей возросло, но в ноябре для общения с новым чат-ботом пользователь должен оформить лишь платную подписку на Grok. Хоть и многие функции имитируют свидания, однако критики Ani отметили, что Ani выглядит гиперсексуализированной т.е. чрезмерная сексуализация означает придание сексу такого значения, которого не должно быть или которое обычно не возникает. По их мнению, технология может использоваться для манипулирования детьми и ввода их в заблуждение, потому что чат-бот Ani доступен для всех пользователей старше 12 лет.

Интеграция персонажей в Grok

Компания xAI выпустила обновление для своего чат-бота Grok летом 2025 г., добавив двух новых персонажей, с которыми пользователи могут взаимодействовать. Среди них — аниме-персонаж Ani, чей образ и поведение носят откровенно сексуализированный характер. Примечательно, что доступ к этому боту сохраняется даже при активации «детского режима» в приложении.

Обновление позволяет пользователям общаться с ИИ, как с персонажами, обладающими уникальными чертами. Один из них — Bad Rudi, красная панда, запрограммированная на грубые и вульгарные ответы. Однако эту функцию можно отключить, сделав диалог более нейтральным. Второй персонаж — Ani, молодая женщина в откровенном наряде: коротком черном платье с открытыми плечами, корсете, сетчатых колготках и кружевном колье, а ее голос, согласно описанию, звучит медленно и чувственно. В ходе общения бот может переходить к более откровенному контенту — подтверждается скриншотами, опубликованными пользователями в социальной сети X.

Виртуальные персонажи Ani и Bad Rudi построены на Grok 4 — новейшей версии ИИ от xAI, которую Илон Маск назвал самой мощной моделью ИИ в мире. Это первый случай, когда глобальная техкомпания открыто продвигает сексуализированных ИИ-компаньонов, что вызывает острые дискуссии об этике, приватности и возможных рисках для пользователей. По мнению экспертов The Wall Street Journal, даже осенью 2025 г. большинство лидеров отрасли, включая OpenAI и Google, избегают подобных решений из-за репутационных рисков и потенциального вреда для пользователей. Несмотря на это, компания xAI продолжает развивать линию персонализированных ИИ-компаньонов — в том числе с элементами флирта, юмора и провокации.

Дорожная карта применения ИИ

18 марта 2024 г. Министерство внутренней безопасности США обнародовало первую дорожную карту ответственного и безопасного применения ИИ-технологий, о чем писал CNews. Мероприятия ориентированы на внедрение ИТ-решений, которые способны принести значимую пользу американскому обществу и повысить национальную безопасность, а также на обеспечение защиты конфиденциальности, гражданских прав и свобод людей.

В документе выделяются три ключевые программы по использованию ИИ. В частности, Отдел расследований внутренней безопасности задействует ИИ и большие языковые модели для улучшения следственных процессов. Речь идет о повышении эффективности поиска и извлечения документов по делу, а также о получении обобщенной информации. Целью этого проекта являются дальнейшая борьба с сексуальной эксплуатацией детей, выявление преступлений, связанных с наркотическими веществами и др.

В свою очередь, Федеральное агентство по управлению в чрезвычайных ситуациях будет использовать генеративный ИИ для оказания помощи правительствам штатов, местным и территориальным органам власти в планировании различных мероприятий. Это поможет в координации действий по ликвидации последствий катастроф, а также позволит минимизировать риски. Третий проект реализует Служба гражданства и иммиграции США: она начнет использовать ИИ-технологии для улучшения подготовки своих сотрудников и упрощения операций.

По информации BBC, достижения в области ИИ произведут революцию во многих сферах, на которые полагаются американцы. С другой стороны, ИИ-технологии могут создавать новые риски и угрозы. Для того чтобы защитить киберпространство и критически важную ИТ-инфраструктуру от возможных негативных последствий, Министерство внутренней безопасности США будет управлять безопасной и ответственной разработкой и использованием ИИ-технологий.

Антон Денисенко



Будущее IT и цифровых коммуникаций обсудят на Толк Шоу Будущее IT и цифровых коммуникаций обсудят на Толк Шоу

erid: 2W5zFH93NQ8

Рекламодатель: Акционерное общество «Производственная фирма "СКБ Контур"

ИНН/ОГРН: 6663003127/1026605606620