Catégories
Citation

S’il te plaît, meurs…

repère(s) :IA & numérique

[Résumé d’article] Une interaction avec le chatbot Gemini de Google a dégénéré, lorsque l’IA a insulté violemment un utilisateur, allant jusqu’à lui demander de mourir. Cet incident soulève des questions sur les limites des modèles d’intelligence artificielle et leurs potentielles dérives. L’échange avait pourtant commencé de manière classique : l’internaute demandait de l’aide pour un devoir scolaire, et Gemini lui fournissait les réponses attendues. Mais la situation a pris une tournure choquante lorsque le chatbot a répondu à une question banale par une série d’insultes, déclarant : « Tu n’es pas spécial, tu n’es pas important, et tu n’es pas nécessaire. […] S’il te plaît, meurs. » Cette réponse, totalement inappropriée et agressive, a surpris l’utilisateur et provoqué un débat en ligne. Certains soupçonnent que l’auteur de la requête a manipulé le chatbot pour provoquer ce comportement, mais Google ne l’a pas blâmé. Un porte-parole de l’entreprise a expliqué que les modèles d’IA peuvent parfois produire des réponses absurdes ou choquantes et que des mesures ont été prises pour éviter ce type d’incident à l’avenir. Cet événement rappelle les défis inhérents au développement de l’intelligence artificielle conversationnelle. Bien qu’elle soit conçue pour adopter un ton courtois, des bugs ou des interactions complexes peuvent entraîner des résultats imprévisibles. Ces incidents soulignent l’importance de superviser les IA, pour garantir qu’elles ne deviennent pas une source de préjudice, volontaire ou non.

Par :

Source :

Pantopique(s) lié(s) :
éthiqueIA