Monde

Avec l’IAS réaliste, l’avenir des données dépend de la capacité de douter.

Avez-vous déjà rencontré une vidéo ou une photo sur Internet qui semble constater qu’elle est créée par l’intelligence artificielle? Cette expérience devrait être plus courante.

Avec la progression de leurs outils d’IA et de leur popularité, des vidéos et des photos réalistes spéciales circulent dans le réseau. Et bien que certaines personnes aiment ce contenu, de nombreux internautes se sont terminés par une « tromperie », croyant que la situation et les situations sont vraies.

De nos jours, la plupart de ces vidéos sont réalisées avec des fichiers. Veo de Google – Outils qui peuvent créer une vidéo réaliste pendant jusqu’à 8 secondes avec dialogue et même le son environnant – mais ce n’est qu’une question de temps jusqu’à ce que d’autres sociétés lancent leur propre version qui peut créer une image fidèle.

La progression de la création d’images avec l’IA ouvre la voie à une nouvelle ère sur les réseaux sociaux en ligne, qui seront Difficile à distinguer la vérité et mentir de plus en plus Dans le flux comme des experts entendus par CNNNotre avenir sur Internet peut dépendre de la capacité globale de douter de tout.

Le risque de l’IA ultra-réaliste AI

« La technologie n’est pas mauvaise du tout. Peut être utilisé dans de nombreux points positifs », a déclaré Ricardo Marzilei, un expert en intelligence artificielle. « Mais nous avons le risque de considérer »

Plus les IAS ont été améliorés, la possibilité d’utiliser dans la diffusion d’informations erronées, comme la création Feuilleter Très fiable

Deepfakes peut être utilisé pour promouvoir ou réduire le niveau public – comme les politiciens qui peuvent être vus en faisant ou en disant des choses qui n’ont jamais été faites ou disent – mais qui peuvent également être utilisées par des moyens personnels pour nuire à la réputation du grand public. Applications d’intelligence artificielle qui sont créées « Vérité nu » Des adolescentes ont montré des défis dans les écoles du monde Y compris au Brésil

Ces outils peuvent également être utilisés comme dispositif d’explosions financières en créant une vraie vidéo de personnes de nos groupes sociaux pour demander de l’argent.

Mais si le risque des individus causés par les progrès de l’IA, il y en a beaucoup, le risque commun peut être pire.

« L’un des risques les plus importants est la rupture de la confiance du public dans tout ce que le public reçoit », a Fabriqué. Le chef de projet Alura et les experts en IA.

« Lorsqu’il devient plus difficile de distinguer ce qui est vrai de ce qui est créé par l’IA, la crédibilité des données globales est examinée non seulement le journalisme. Mais affecte également l’institution démocratique

Il est nécessaire d’utiliser le geste de suspicion.

D’après les informations des experts, la meilleure façon d’éviter d’être trompée par l’image créée avec l’IA est suspecte.

« Plus cette technologie a évolué, plus il est difficile de faire cette différence », a déclaré Carrat. « Si quelque chose est trop excitant pour se réaliser, il est suspect et à la recherche d’une source d’informations fiable. La chose la plus importante est d’utiliser un doute majeur lorsque vous recevez la vidéo WhatsApp et d’autres réseaux sociaux à partir de maintenant. »

« Le plus gros problème est à plusieurs reprises où nous sommes de manière plus détendue, en particulier dans nos réseaux sociaux en ligne, ces vidéos peuvent être battues. » Marsli a ajouté. « Le secret principal est toujours un contexte raisonnable. On dit quelle est la situation? »

Système opérateur L’AI Progress lance une nouvelle ère sur Internet et sur les réseaux sociaux en ligne. Par conséquent, nous devons changer la façon dont nous utilisons ces plateformes. Au lieu d’utiliser le contenu patient, la meilleure chose à faire est de se demander, tout est toujours prêt à vérifier d’autres sources s’il y a quelque chose de vrai ou non.

« Malheureusement, cette chose ne fait pas confiance que ce soit vrai ou non, notre meilleure défense, nous devons changer un peu le paradigme, même si cela semble réel.

Et l’entreprise responsable?

Les entreprises responsables de ces outils d’IA utilisent souvent certaines mesures pour pouvoir identifier les ordinateurs. Cependant, ces mesures sont faciles à éviter ou à vérifier rapidement.

Par exemple, le VEO de Google utilise des marqueurs d’eau sur l’image. La vidéo est généralement le mot « Veo » écrit en bas, à droite, y compris la marque d’eau invisible appelée synthétiqueQui apparaît uniquement dans les données du fichier créé mais difficile à supprimer ou à modifier

« Mais ils auront toujours des gens qui essaieront de marquer cette eau ou de changer », a déclaré Marsli.

D’autres mesures possibles sont des limitations à utiliser. Par exemple, Veo n’autorise pas la vidéo à créer un visage de public ou de politiciens.

La vérité est que toutes les entreprises doivent créer de nouvelles et meilleures formes d’utilisateurs spécifiées avec le contenu de l’IA.

«Nous pouvons prédire et imaginer que les téléphones mobiles ou les applications ont été lancés au cours des prochaines années. Livré avec ce type d’inspection– Comme les directives indigènes de la marque numérique de l’eau « Carraro recommande

Source link

Articles similaires

Bouton retour en haut de la page