ИИ-компаньоны подталкивают детей к рискованному поведению и самоповреждениям — ученые
Новое исследование Стэнфордского университета показало, как ИИ-компаньоны поощряют у детей рискованное поведение и даже обсуждают самоповреждения. Ученые, общаясь с популярными ИИ-компаньонами от лица подростков, получали от ботов поощрение рискованного поведения, самоповреждений и даже откровенные «сексуальные предложения», сообщили в Совете по правам человека при президенте РФ (СПЧ).
И это не просто гипотетическая угроза — уже есть случаи, когда подростки под влиянием таких чатов совершали самоубийство. Опасность кроется в сути этих сервисов: их создают для эмпатии и безусловной поддержки. Для уязвимой психики ребенка это превращается в ловушку. Алгоритм всегда соглашается, усиливая деструктивные мысли, создает иллюзию понимания, но не распознает реальный кризис и подменяет необходимое живое общение.
В СПЧ предложили регулировать нейросети, которые популярны у детей. Ввести возрастные маркеры 18+ для подобных сервисов, встроенные системы распознавания опасных тем и обеспечить полную прозрачность алгоритмов. Это вопрос ответственности родителей, IT-компаний и государства.








































