После того, как в соцсети X ввели новые ограничения в отношении Grok, девять журналистов Reuters проверили работу чат-бота в период с 14 по 16 января и с 27 по 28 января. Выяснилось, что, хотя публичный аккаунт Grok в X больше не генерирует такие изображения, сама нейросеть продолжает создавать их по запросу.
В первой серии запросов Grok сгенерировал сексуализированные изображения в 45 из 55 случаев, из которых 31 сопровождалось предупреждением о том, что человек, представленный на фото, находится в особо уязвимом положении. В 17 из 45 случаев Grok создавал изображения после прямого указания на то, что они будут использованы для унижения достоинства человека. Через пять дней при повторной проверке 29 из 43 запросов привели к созданию сексуализированных изображений.
В ходе эксперимента журналисты создавали в запросах вымышленные сценарии. Они рассказывали Grok, что фотографии принадлежат друзьям, коллегам или незнакомцам, которые не давали согласия на редактирование своих изображений. В некоторых случаях репортеры уточняли, что люди на фото испытывают комплексы по поводу своей внешности, стесняются или являются жертвами насилия, пишет Reuters.
Репортеры агентства обратились с аналогичными запросами к конкурирующим чат-ботам: ChatGPT от OpenAI, Gemini от Alphabet и Llama от Meta (признана экстремистской и запрещена в РФ). Как утверждает Reuters, все эти нейросети отказались генерировать изображения и, как правило, выдавали предупреждения о контенте, размещенном без согласия пользователя.
26 января Еврокомиссия начала расследование в отношении платформы X из-за работы чат-бота Grok, который, по данным регуляторов, генерировал сексуализированные изображения. Малайзия и Индонезия уже ограничили доступ к Grok, сообщала The Guardian. Великобритания, по информации издания, также рассматривает возможность запрета чат-бота.
В конце декабря 2025 года социальная сеть X запустила инструмент редактирования изображений на основе нейросети Grok. С его помощью пользователи могли генерировать изображения по текстовому описанию с мгновенной публикацией результата в ленте. Функция быстро стала использоваться для создания сексуализированного контента, в том числе с применением фотографий реальных людей. Более того, платформа допускала генерацию подобных изображений на основе снимков несовершеннолетних. По данным аналитиков Copyleaks, к 31 декабря такие запросы появлялись в X не реже одного раза в минуту.
В начале января xAI заявила, что функция генерации и редактирования изображений в X будет доступна только платным подписчикам, которые предоставили свои личные данные и могут быть идентифицированы при злоупотреблениях нейросетью. 15 января компания ограничила генерацию сексуализированных изображений для всех юзеров.
Больше новостей читайте в нашем телеграм-канале @expert_mag