Nous joindre
X
Rechercher
Publicité

Suicide: Instagram informera les parents si leurs enfants font «plusieurs» recherches

durée 14h05
26 février 2026
La Presse Canadienne, 2026
durée

Temps de lecture   :  

3 minutes

Par La Presse Canadienne, 2026

Instagram a annoncé jeudi qu'il alerterait les parents si leurs enfants effectuaient des recherches répétées sur des termes clairement associés au suicide ou à l'automutilation. Ces alertes seraient uniquement envoyées aux parents inscrits au programme de contrôle parental d'Instagram.

Le réseau social précise qu'il bloque déjà ce type de contenu dans les résultats de recherche des comptes adolescents et oriente les utilisateurs vers des services d'aide.

Cette annonce intervient alors que la société mère, Meta, est impliquée dans deux procès aux États-Unis pour préjudice causé aux enfants. Un procès en cours à Los Angeles examine si les plateformes de Meta créent délibérément une dépendance et nuisent aux mineurs. Un autre, au Nouveau-Mexique, cherche à déterminer si Meta a manqué à son devoir de protéger les enfants contre l'exploitation sexuelle sur ses plateformes.

Des milliers de familles, ainsi que des districts scolaires et des organismes gouvernementaux, ont porté plainte contre Meta et d'autres entreprises de médias sociaux, les accusant de concevoir délibérément leurs plateformes pour créer une dépendance et de ne pas protéger les enfants contre les contenus pouvant entraîner dépression, troubles alimentaires et suicide.

Les dirigeants de Meta, dont le président et directeur général Mark Zuckerberg, réfutent l'idée que les plateformes provoquent une dépendance. Interrogé par l'avocat du plaignant à Los Angeles, Mark Zuckerberg a réaffirmé maintenir sa position antérieure selon laquelle les études scientifiques actuelles n'ont pas démontré que les réseaux sociaux nuisent à la santé mentale.

Les alertes seront envoyées par courriel, texto ou WhatsApp, en fonction des coordonnées du parent, ainsi que par une notification sur son compte Instagram. Elles entreront en vigueur dès la semaine prochaine dans quelques pays, dont les États-Unis et le Canada, et ailleurs dans le monde plus tard cette année.

«Notre objectif est de permettre aux parents d’intervenir si les recherches de leur adolescent suggèrent qu’il pourrait avoir besoin de soutien. Nous voulons également éviter d’envoyer ces notifications inutilement, car si elles sont trop fréquentes, elles risquent de perdre en pertinence», a expliqué l'entreprise dans un billet de blogue.

Responsabilité

Josh Golin, directeur exécutif de l'association Fairplay, s'est montré sceptique quant à ce nouvel outil, déclarant qu'Instagram «agit manifestement maintenant parce que l'entreprise est actuellement poursuivie dans deux États pour avoir rendu les enfants dépendants et leur avoir porté préjudice».

«Une fois de plus, Meta reporte la responsabilité sur les parents au lieu de corriger les failles dangereuses de ses algorithmes et de ses plateformes, a-t-il déploré. Tous les enfants méritent d’être protégés, que leurs parents soient inscrits ou non aux outils de supervision de Meta. Si un produit n’est pas sécuritaire pour les adolescents sans la supervision de leurs parents, il ne devrait tout simplement pas leur être proposé.»

Meta travaille également sur un système de notifications similaire destiné aux parents concernant les interactions de leurs enfants avec l’intelligence artificielle (IA).

«Celles-ci informeront les parents si un adolescent tente d’engager certains types de conversations liées au suicide ou à l’automutilation avec notre IA, explique le réseau social dans sa publication. Il s’agit d’un travail important, et nous aurons davantage d’informations à partager dans les mois à venir sur ce sujet.»

Barbara Ortutay, The Associated Press

app-store-badge google-play-badge