Économie

L’intelligence artificielle fait-elle des erreurs lors de l’utilisation pour vérifier les photos?

Les internautes se tournent vers des programmes de chat automatiques lorsqu’ils souhaitent être obtenus à partir d’informations, mais l’utilisation de l’intelligence artificielle est pleine d’erreurs dans les enregistrements de la plate-forme « X » après avoir publié une image d’une fille souffrant de malnutrition à Gaza.

Le 3 août, le député français du parti des parents Emeryk Karon a soutenu la question palestinienne sans commenter X, et la bande de Gaza a été menacée d’une « famine générale », selon les Nations Unies.

Les utilisateurs ont utilisé l’outil « Groke » pour l’intelligence artificielle pour vérifier la réalité de l’image, donc la réponse vient. « Cette image a été prise le 18 octobre 2018 au Yémen dans la clinique mobile de l’UNICEF. »

« L’image embrasse Amal Hussein, un sept ans, souffre d’une grave malnutrition, au milieu de la famine causée par la guerre civile par sa mère Maryam Al -ali. »

Il a confirmé que l’outil d’intelligence artificielle est basé sur des sources fiables telles que le New York Times et Al -Jazeera Channel et a poursuivi: «L’image documente la famine au Yémen, non pas de la guerre à Gaza, mais de la guerre au Yémen. Je fais confiance aux sources fiables, mais je fais confiance aux sources fiables.

Sur la base de cette réponse, les utilisateurs ont accusé les mauvaises informations et l’image s’est répandue très largement avec plus d’un million d’opinions. Cependant, contrairement à l’approbation de Grook, l’image n’a pas été retirée au Yémen en 2018.

La recherche inverse traditionnelle guide la source d’origine et a été prise avec une lentille de l’Omar Al -Gaza de « l’agence de presse française » à Gaza.

Sur la photo, Maryam Dawas de neuf ans, qui souffre de malnutrition pour sa mère, est transportée par des panneaux dans le quartier al-raide de la ville de Gaza (33 ans).

La date de capture d’image peut être déterminée par le fichier de données explicatif qui l’accompagne.

La famille vit actuellement dans un camp déplacé dans le nord de la bande de Gaza. Mudalla Dawas a déclaré à l’agence de presse française que sa fille n’avait souffert d’aucune maladie avant la guerre et pesait 25 kilogrammes. Il ne dépasse pas 9 kilogrammes aujourd’hui.

Le cinq août, les journalistes de l’agence de presse française ont de nouveau poursuivi la mère, qui a confirmé que la malnutrition affecte la condition psychologique et physique de sa fille. « Les choses ne sont pas bonnes, et il veut que je cuisine parce qu’il lui prescrit ou le médicament du médecin qui le guérit. »

Groche n’est pas faux pour la première fois, mettant l’accent sur les risques d’appliquer l’intelligence artificielle comme outils obtenus à partir d’informations ou de matériaux optiques.

Au quatrième août, le véhicule d’intelligence artificielle s’est retiré de sa réponse à l’image de la fille et a accepté l’erreur: Orum, j’accepte l’erreur: après avoir été prise au Yémen en 2018 (Agence de presse française).

Cependant, le véhicule est revenu à l’erreur le cinq août lorsque la même question sur l’image est à nouveau pour répondre que l’image était ancienne du Yémen.

« Fonds noirs »

Louis De Despash, propriétaire du spécialiste de l’éthique technologique et livre « Hello Chat GBT », est difficile de déterminer ce que ces modèles servent avec un mystère et comment ils fonctionnent, ce qui est derrière ou ce qui contient, et c’est ce qui nous rend blâme. « 

Selon cet expert, l’outil « Groche » incarne un préjugé idéologique, comme tous les outils similaires qui ne sont jamais neutres.

L’outil « Groke » montre un préjudice plus clair conformément à l’idéologie encouragée par Elon Musk, le propriétaire de la plate-forme X. Le mois dernier, le système d’intelligence artificielle «X» a conduit à une controverse généralisée en Afrique du Sud après une fausse déclaration du «changement non réduit».

Ces préjugés sont causés par deux sources principales: ce qu’il prépare pour la réponse « droite » ou « erreur » proportionnellement aux données de formation des véhicules et aux principes où le modèle est formé.

« Ces modèles linguistiques font des erreurs, mais ils n’apprennent pas toujours directement », dit-il. Il a fait mal une fois, cela ne signifie pas qu’il ne va pas le répéter à nouveau. Cela explique également que ce qu’il offre est mal, ne signifie pas qu’il changera sa réponse le lendemain; Parce que les données de formation n’ont pas changé. « 

Louis de Despache explique que demander un robot de discours sur l’origine d’une image est un désir de le supprimer de sa tâche de base. « Habituellement, il peut dire en recherchant l’origine d’une image: (Peut-être que cette image a été prise au Yémen ou peut-être prise à Gaza, ou peut-être emmenée dans n’importe quel pays souffrant de faim). » « Que le modèle linguistique n’essaie pas de créer les bons sujets, donc ce n’est pas le cas. »

Et le journal « Kurtuluş » a publié une autre photo de « l’agence de presse française », qui montre un enfant souffrant de malnutrition à Gaza. Groke a fait une erreur que l’image a été prise au Yémen en 2016, en fait, l’image a été prise à Gaza en juillet 2025.

L’erreur de l’intelligence artificielle a poussé les internautes à accuser le journal de manipulation incorrecte.

« Groke » n’est pas seul

Sur la plate-forme X, certains utilisateurs ont partagé les mauvaises réponses fournies par un autre modèle linguistique de la société « Mistral IA », qui est un partenariat avec « l’agence de presse française », qui a permis à l’intégration des nouvelles de l’agence dans les réponses de l’assistant de dialogue.

Agence France -Prese News Agency Team a passé le même test dans le véhicule « Mistral » en utilisant une photo de Dawas. Le résultat a montré que l’intelligence artificielle a fait une erreur, l’image a été dessinée au Yémen.

Louis De Despash pense que les robots de discours ne devraient pas être utilisés pour vérifier la réalité des nouvelles et des images telles que les moteurs de recherche; Parce que « non conçu pour dire la vérité » ou « produisant le bon contenu », plutôt « bien ou mal, pour produire du contenu ».

Et il conclut: « Ces robots devraient être considérés comme un ami qui est malade de mensonges: il ne ment pas toujours, mais il peut mentir à tout moment. »



Source link

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page