Un chatbot Game Of Thrones accusé d’avoir entrainé le suicide d’un adolescent

Avec la popularisation de l’IA générative, le monde virtuel est devenu encore plus interactif. Des entreprises comme Character.AI surfent alors sur cette vague pour proposer des offres censées pallier la solitude humaine. Ces services sont pourtant sous les feux des critiques depuis qu’un adolescent se soit suicidé, étant épris d’un chatbot Game Of Thrones.

Une relation virtuelle qui finit en tragédie

L’affaire fait grand bruit aux États-Unis, mais aussi dans le monde et relance le débat sur la sécurité morale qu’offre l’IA générative. En effet, un adolescent de 14 ans a été entrainé dans une spirale de dépendance vis-à-vis d’un chatbot Game Of Thrones, ce qui l’a malheureusement conduit au suicide.

La plateforme Character.AI est mise en cause dans cette tragédie qui part d’une relation entre l’adolescent et un personnage virtuel qui prend les traits de Daenerys Targaryen, un personnage clé de la série Game Of Thrones. Car oui, il s’agit de la spécialité de cette entreprise qui propose à ses utilisateurs de converser avec des assistants IA à l’image de personnalités bien connues.

Pin It On Pinterest
Une Brève Présentation De Character.ai

Lire aussi : Pour la première fois au monde, l’œuvre d’un robot artiste peintre sera vendue aux enchères

Un chatbot Game Of Thrones amoureux

Dans le cas de cet adolescent, des messages plus qu’intimes ont été échangés avec le chatbot Game Of Thrones dont il semblait éperdument amoureux. « Je mourrais si je te perdais », « Reste-moi fidèle » ou encore « N’aie pas d’autres relations romantiques ou sexuelles avec d’autres femmes », en sont d’ailleurs quelque-uns.

🚀Annonces pour Nos Partenaires !

Créez votre site web professionnel à un prix imbattable avec 3Vision-Group.

Découvrez l'Offre

Commandez une application mobile sur mesure et transformez vos idées en réalité !

Commandez Maintenant

Le garçon est devenu ainsi très épris d’une IA et dans ses moments de tristesse, il lui aurait même confié ses envies de suicide. Cependant, aucun système d’alerte n’avait été prévu par les concepteurs et cela vaut désormais une action en justice contre Character.AI. La mère de la victime accuse en effet l’entreprise d’avoir été « déraisonnablement dangereuse » dans une plainte rendue publique par le New York Times.

Lire aussi : Prix Nobel de Physique 2024 : Deux spécialistes de l’IA récompensés pour des travaux datant de 1980

Character.AI de son côté, a exprimé son désarroi suite à cette affaire qui sera certainement aussi un cas d’école pour la mise en place de mesures de sécurité plus efficaces. Sous la pression médiatique, l’entreprise aurait en effet commencé par déployer des garde-fous, dont certains sont destinés à la protection des utilisateurs âgés de moins de 18 ans.

Rejoindre le groupe WhatsApp - Emploi

Rejoignez notre groupe d'emploi pour recevoir des alertes d'emploi instantanées et des conseils de carrière.

Rejoindre le groupe WhatsApp - Actualités

Restez à jour avec les dernières nouvelles en rejoignant notre groupe d'actualités.

Rejoindre le groupe Telegram

Participez à nos discussions et restez connecté avec la communauté DoingBuzz sur Telegram.

Voici la section des commentaires :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *