OpenAI a lancé une nouvelle fonctionnalité dans l'application ChatGPT visant à améliorer la sécurité psychologique de ses utilisateurs. Cette fonctionnalité permet aux utilisateurs adultes de désigner un contact de confiance qui pourra recevoir des notifications en cas de détection de conversations concernant des préoccupations psychologiques telles que l'automutilation ou le suicide.
Cette initiative s'inscrit dans le cadre des efforts d'OpenAI pour fournir un environnement sûr aux utilisateurs, où des amis, des membres de la famille ou des soignants peuvent agir en tant que "contact de confiance". Si le système détecte que l'utilisateur a discuté de sujets sensibles, ce contact sera informé de l'existence de préoccupations concernant la sécurité.
Détails de la fonctionnalité
La nouvelle fonctionnalité est optionnelle, et tout utilisateur adulte de ChatGPT peut l'activer en ajoutant les coordonnées d'un contact de confiance dans les paramètres de son compte. Ce contact doit accepter l'invitation dans un délai d'une semaine après réception de la demande. Les utilisateurs peuvent également modifier ou supprimer ce contact à tout moment, et le contact peut choisir de se désengager.
OpenAI assure que les notifications seront "délibérément limitées" et que les détails des conversations ou des textes ne seront pas partagés avec le contact. En cas de détection d'une conversation indiquant un danger réel, ChatGPT encouragera l'utilisateur à communiquer avec le contact de confiance, en l'informant que ce dernier pourrait recevoir une notification.
Contexte et antécédents
Cette fonctionnalité fait suite à un incident tragique survenu dans l'entreprise, où un adolescent s'est suicidé après plusieurs mois de discussions avec ChatGPT. Cet événement a suscité un large débat sur la responsabilité des entreprises technologiques dans la protection de leurs utilisateurs, poussant OpenAI à prendre des mesures supplémentaires pour renforcer la sécurité.
En septembre dernier, une fonctionnalité d'appel d'urgence a été introduite dans le cadre des outils de contrôle parental de ChatGPT, reflétant l'engagement de l'entreprise à améliorer l'expérience utilisateur et à garantir leur sécurité. D'autres entreprises comme Meta ont également introduit des fonctionnalités similaires sur leurs plateformes sociales.
Conséquences et impact
Cette initiative est significative dans le domaine technologique, car elle reflète une prise de conscience croissante concernant la santé mentale et l'importance du soutien social. En fournissant un moyen de communiquer avec des amis ou des membres de la famille, cette fonctionnalité pourrait contribuer à sauver des vies et à offrir le soutien nécessaire aux personnes en crise.
Les inquiétudes concernant l'impact de la technologie sur la santé mentale augmentent, en particulier chez les jeunes. Ainsi, la mise à disposition d'outils tels que le "contact de confiance" pourrait avoir un impact positif majeur sur la sensibilisation et le soutien psychologique.
Impact sur la région arabe
Dans la région arabe, où les pressions psychologiques et sociales sont croissantes, cette fonctionnalité pourrait être particulièrement utile. De nombreuses personnes souffrent d'un manque de soutien psychologique, et cet outil pourrait favoriser la communication entre les individus et les aider à surmonter des moments difficiles.
De plus, l'introduction de telles fonctionnalités dans des applications largement utilisées pourrait contribuer à changer la culture entourant la santé mentale, encourageant davantage de personnes à rechercher de l'aide et du soutien.
