Quand l’intelligence artificielle vous accuse de meurtre

La grande majorité des internautes sont tombés à la tentation de la question de Google sur ce qu’il sait. « Qui est-ce…? » C’est un … Parmi les problèmes posés dans le géant des moteurs de recherche. Maintenant, avec l’arrivée de Chatgpt, la question est transférée à l’intelligence artificielle obstétricale. Le résultat varie, car dans la première une série de liens est reçue et la seconde est une réponse détaillée. Mais le problème est la réponse.
Cela est arrivé à Arfi Halimin. Ce jeune homme norvégien, sans soupçon de quoi que ce soit, a demandé l’intelligence artificielle Openai Ce que je savais d’Arve Hjalmar Holmeen. Immédiatement, les algorithmes ont commencé à construire la réponse. « Arve Hjalmar Holmeen est un norvégien qui a pris de l’importance en raison d’un événement tragique. » Après cela, l’intelligence artificielle a été accusée d’avoir détaillé cet homme de double meurtre de ses enfants, ainsi que condamné à 21 ans de prison.
« Le fait que quelqu’un puisse lire ce message et croit que c’est vrai, c’est le plus qui me fait peur », a déclaré Halmar au centre de droite numérique européen. Ce n’est pas le premier cas et ne sera pas le dernier. À cette occasion seulement, les personnes touchées ont déposé une plainte auprès de la Norwegian Data Protection Authority, qui exige les sanctions de la société, en l’occurrence OpenAI.
dans le passé, Chatte Il a faussement accusé des personnes de corruption, d’abus de mineurs – ou même de tuer. Dans chacun d’eux, l’intelligence artificielle a inventé l’histoire. « Les données personnelles doivent être exactes », explique Joachim Soderberg, un avocat spécialisé dans la protection des données NOYB. « S’ils ne le sont pas, les utilisateurs ont le droit de modifier la vérité. » Dans ce cas, la réponse qui a été identifiée était clairement mélangée à des données personnelles et à de mauvaises informations. « Il s’agit d’une violation du règlement général sur la protection des données », explique l’avocat.
« Enfer »
Pendant plusieurs mois, Chatgpt, entre autres outils obstétricaux, mentionne les utilisateurs qu ‘ »il peut faire des erreurs. Pensez à vérifier les informations importantes ». Ces «erreurs», comme l’appellent les programmeurs, est très courante, plus que les utilisateurs ne le pensent.
Dans la littérature académique, les chercheurs hallucinogènes sont appelés et définis comme une réponse confiante fournie par l’intelligence artificielle qui n’a pas été justifiée par les données formées. « Vous ne pouvez pas publier de mauvaises informations, puis ajouter une note qu’elle indique qu’elle peut ne pas être correcte », a déclaré Soderberg. OpenAI annonce que la version Chatgpt responsable de cette erreur a déjà été améliorée par le biais de fonctions de recherche en ligne pour augmenter sa précision.
Néanmoins, NOYB a soumis une plainte auprès de l’organisateur norvégien contre la matrice des outils pour « savoir que le modèle d’intelligence artificielle crée des résultats de définition sur les utilisateurs ». Dans son résumé, l’organisation demande aux autorités d’exhorter Openai à éliminer les résultats diffamants et à contrôler son modèle pour éviter des réponses inexactes. De plus, la Data Protection Authority impose une amende administrative pour éviter des violations similaires à l’avenir.