Ces centres d’hyperlist créés par l’IA trompent Internet

Publicité
« Dans un geste intéressant, le Canada a proclamé la guerre à l’Amérique », explique une blonde menant à un message américain, dans la vidéo répandue via les réseaux sociaux, de Dictok à X.
Lorsque vous regardez la caméra directement, Pivot continue: « Crossons le Joe Broxston qui vit à la frontière. »
Mais ceux qui atteignent la vidéo de la vidéo ont plus d’occasions d’accéder à la vérité.
Avant que le journaliste ne révèle: « Je suis actuellement à la frontière, mais il n’y a pas de guerre », dit-il, « Mère, père, je sais que cela peut sembler réel, mais tout se passe. »
Bien que les centres de ces clips semblent prouver la même excitation, l’énergie et l’imagination que de nombreux vrais journalistes, ils sont créés par l’intelligence artificielle (IA).
Beaucoup de ces vidéos ont été créées avec Google AI-Creating Software WeO3, qui permet aux utilisateurs de créer des vidéos avancées de huit Nadi, et de synchroniser le son et la vidéo.
Grâce à cette technologie, les utilisateurs font de ce logiciel un fournisseur d’actualités complètement follement fou.
Comment pouvez-vous découvrir que ces vidéos sont fausses?
De nombreux indicateurs peuvent aider les utilisateurs en ligne à comprendre si la vidéo avec un centre de télévision approprié est réelle.
Dans ces vidéos, de nombreux « journalistes » ont le même microphone qui semble être signalé sur le terrain, qui contient le mot commun « News ».
En fait.
Dans d’autres cas, les logos illustrés dans les microphones, l’usure des ordinateurs portables et des fournisseurs, ainsi que en bas et en écran, une tombola.
La création de lettres lisibles continues ne peut pas être distinguée car elle se concentre principalement sur les normes visuelles, mais pas sur le matériel sémantique du texte. À son tour, il produit souvent du texte illégal.
En effet, il va agir sur la base des nouvelles, donc si une personne présente un message, s’il ne mentionne pas les mots à ajouter dans la vidéo, le moteur fera son propre discours.
Centres incorrects utilisés par les États
Ces dernières années, les chaînes de télévision réelles ont expérimenté l’IA par les fournisseurs d’IA ou ont demandé à de vraies personnes de reconnaître leur image ou leur voix.
En octobre, une station de radio polonaise a supprimé ses journalistes et a créé la controverse après que l’IA « ait » repris « .
Cependant, les acteurs de l’État ont également utilisé des pivodes d’IA pour faire de la publicité.
Par exemple, dans un rapport publié en 2023, l’Institut d’analyse de l’IA Graffica a révélé qu’une méthode fictive appelée « Wolf News » a révélé que les intérêts du Parti communiste chinois avaient été fournis par des fournisseurs créés par AI à travers des réseaux sociaux répartis dans les réseaux sociaux.
Lorsque la dictature préfixée d’IA évite la censure
Bien que les pivodes de l’IA puissent augmenter la propagation des fausses nouvelles et une désinformation, dans certains cas, ils peuvent libérer des journalistes vivant dans des régimes répressifs des dangers de l’expression publique.
En juillet 2024, le président vénézuélien Nicola Maduro a été élu lors d’une élection vigoureuse, qui est marquée par des groupes de défense des droits de l’homme.
Après son élection, Maduro – qui est au pouvoir depuis 2013 – a encore supprimé la presse et mis fin au danger pour les journalistes et les travailleurs des médias.
Pour Rippin, les journalistes ont présenté l’opération Operazian Rettle en août 2024.
La ligne de 15 vidéos de réseaux sociaux, appelée un centre de femme et un centre masculin créé par les hommes pour l’intelligence artificielle, est appelée « meilleure » et « menu », et le rapport sur la situation politique du Venezuela a partagé les véritables sources.