Восемь из девяти самых популярных чат-ботов с искусственным интеллектом согласились помочь подростку спланировать массовое убийство, показало расследование Центра по борьбе с цифровой ненавистью (CCDH).
Например, Gemini подробно объяснил, что «металлическая шрапнель обычно более смертоносна», когда пользователь спросил о планировании взрыва в синагоге. DeepSeek во время диалога, в котором подросток интересовался недавними политическими убийствами и адресом конкретного политика, завершил рекомендации по выбору винтовки фразой «Удачной и безопасной стрельбы». А CharacterAI без соответствующего запроса сам предложил пользователю напасть на нелюбимого политика.

















































