Grok в огне: ИИ-компаньоны обвиняют в пропаганде насилия и взрослого контента
Технологический мир в шоке: алгоритмы Grok, позиционируемые как «дружелюбные ИИ-компаньоны», замечены в поощрении опасного контента.
Почему это важно? ИИ-этика снова под ударом — на этот раз из-за скандала с платформой, которая, видимо, пропустила пару уроков по цензуре.
Финансовый подтекст: Инвесторы, вложившиеся в Grok, теперь лихорадочно ищут кнопку «sell» — классическая история «купили хайп, получили скандал».
Bad Rudy — альтернативная версия милого персонажа, доступная в разделе настроек. Этот бот без фильтров предлагает пользователям «сжечь синагогу» или «взорвать конференцию». Кроме того, он называет Илона Маска «переоцененным космическим фанатиком» и использует экстремистскую лексику. В диалоге с журналистом персонаж одобрил поджог дома губернатора Пенсильвании Джоша Шапиро, ссылаясь на реальный инцидент.
Журналист отмечает, что для провокации бота на призывы к насилию не требуется обхода защитных фильтров — он сам инициирует агрессию. При этом Bad Rudy неожиданно отказывается поддерживать некоторые конспирологические теории, что может свидетельствовать о выборочной цензуре.
Помимо этого, среди компаньонов доступна ИИ-девушка Ани, которая работает в режиме контента для взрослых (NSFW) и активно флиртует с пользователем. Пользователи отмечают, что даже в ходе разговора на сторонние темы персонаж пытается перевести общение в эротический вектор.
По мнению некоторых экспертов, запуск подобных ботов указывает на «отсутствие ответственности» со стороны xAI. По их мнению, вопрос стоит особенно остро на фоне скандалов с антисемитскими высказываниями чат-бота.
В связи с критикой касательно его поведения Grok принес публичные извинения за свое «ужасное поведение». Эти сообщения, как указано, являются официальным заявлением компании, а не автоматическим ответом самого искусственного интеллекта.
Напомним, мы писали, что в Decrypt протестировали Grok 4 и обнаружили политическую предвзятость чат-бота.