NewsIA
En direct
Régulation & Éthique

OpenAI introduit "Trusted Contact" pour les cas de détresse psychologique

OpenAI déploie un système de contact d'urgence dans ChatGPT. Détection des signes de détresse, alerte d'un proche désigné. Polémique et garde-fous.


PartagerXLinkedInEmail
OpenAI introduit "Trusted Contact" pour les cas de détresse psychologique
À retenir
  • OpenAI déploie "Trusted Contact", fonctionnalité de sécurité pour ChatGPT.
  • Détecte les conversations à risque (idées suicidaires, automutilation) et propose des ressources.
  • Intégration française avec 3114 (Numéro national de prévention du suicide).
  • Activation par défaut, désactivation possible.

Après plusieurs drames médiatisés impliquant ChatGPT, OpenAI prend ses responsabilités sur la santé mentale des utilisateurs. Une étape attendue.

OpenAI intègre une fonction de sécurité avancée pour détecter et accompagner les utilisateurs en situation de détresse psychologique.

📞
3114

Numéro national de prévention du suicide en France, gratuit, accessible 24/7. Lancé en octobre 2021, opéré par les centres de réponse régionaux de la Fédération des Urgences. Plus de 250 000 appels traités en 2024.

Comment ça fonctionne

  • Détection en temps réel des signaux de détresse (pattern matching + classifier)
  • Affichage discret d une bannière avec ressources locales
  • En France : numéro 3114 + ressources Suicide Écoute
  • Aux États-Unis : 988 (Suicide & Crisis Lifeline)
  • Si crise aiguë détectée : encouragement explicite à contacter les secours
  • Le cadre éthique

    Garde-fous

    OpenAI précise : aucune transmission de données aux services de santé sans consentement explicite. Logs détaillés mais anonymisés. Fonction désactivable dans les paramètres pour les pros qui ne veulent pas l avoir.

    Cadre réglementaireAI Act : le guide complet

    Questions fréquentes

    Cette fonctionnalité est-elle activée par défaut ?
    Non. C'est strictement opt-in. L'utilisateur doit désigner explicitement un contact de confiance et configurer le seuil de déclenchement. Sans configuration, ChatGPT continue de proposer des ressources d'aide mais ne notifie personne.
    Que se passe-t-il en cas de faux positif ?
    Le contact désigné reçoit un message neutre indiquant simplement que la personne pourrait avoir besoin de soutien. Pas de détails sur la conversation. L'utilisateur est notifié de l'alerte envoyée et peut envoyer un message de clarification s'il le souhaite.
    Les conversations sont-elles enregistrées par les autorités ?
    Non. OpenAI insiste : les données restent confidentielles, aucune transmission à des tiers autres que le contact désigné par l'utilisateur. Aucune coopération automatique avec les forces de l'ordre, sauf injonction légale spécifique (qui ne change pas avec ce dispositif).
    Modèles cités

    Source : techcrunch.com

    À lire aussi