J’ai été alarmé par l’IA. Mauvaise information et obscurité: parce que nous devons faire … maintenant – commente.

Par Paulo Calçada
Ce qui me rend vraiment inquiet pour le monde numérique que nous ne créons pas, ce n’est que le rythme de l’innovation – c’est le manque de préparation pour faire face aux conséquences.
Le dernier rapport KPMG publié auprès de l’Université de Melbourne, intéressé par cette question. En se demandant plus de 48 000 personnes dans 47 pays, l’étude a révélé que les inconvénients importants entre la confiance et l’utilisation des outils d’IA: bien que les répondants de deux tiers (66%) prétendent utiliser régulièrement des outils d’IA. De plus, plus de 60% n’ont jamais été officiellement établis ou IA (connaissances).
La situation est particulièrement préoccupée par l’économie avancée dans laquelle la confiance dans la technologie de l’IA est inférieure à celle de la nouvelle économie émergente. – Seulement 39% des habitants de l’économie avancée ont déclaré qu’ils faisaient confiance au système d’IA contre 57% dans l’économie émergente. Le déficit de cette confiance est causé par une peur accrue: le risque de cybersécurité (85%), de mauvaises données (82%), la perte de connexion humaine (83%), les violations de la vie privée (82%), la gestion (81%) et les changements (80%) impressionnants.
Le résumé lié au lieu de travail est aussi choquant. Bien que 58% des employés soient utilisés régulièrement au travail. Mais presque la moitié a reconnu que, sous une forme qui peut s’opposer à la politique d’environ la moitié de votre entreprise, a introduit une information délicate de la société dans l’outil d’IA et un rapport de 56%, car l’IA vérifie l’exactitude des résultats que la moitié. Malgré l’utilisation approfondie, seulement 40% de l’organisation ayant une politique pour être une ligne directrice d’utilisation d’origine d’IA.
Parmi les étudiants, la situation est plus importante que – 83%. Utilisez une éducation régulière avec une utilisation inappropriée et une dépendance étendue. La chose la plus inquiet est que 77% affirment qu’ils estiment qu’ils ne sont pas en mesure de terminer le travail sans être soutenu par l’IA, ce qui démontre la dépendance, qui peut compromettre le développement de compétences importantes – ce formulaire devrait être particulièrement reflété.
Le rapport montre également les exigences solides des personnes pour les règles: 70%. On pense que les règles de l’IA sont nécessaires, mais seulement 43% considèrent que la loi actuelle est suffisamment 85% soutenant les lois spécifiques pour lutter contre les mauvaises informations créées par l’IA et les pourcentages similaires, a besoin des sociétés sociales et des médias pour renforcer les faits.
Mais les règles ne sont pas suffisantes, nous devons investir dans la formation sociale (connaissances) – afin que les gens aient des outils, des compétences et des perceptions nécessaires pour diriger les conseils en forme mondiale. L’origine de l’IA, rapport, spécifiant des livres dans IA, est un facteur important pour la responsabilité. Mais il n’y a que deux personnes sur cinq qui ont été formées ou étudiées dans la région des AA qui sont descendues à un seul tiers des pays les plus modernes.
L’étape importante consiste à utiliser le mécanisme numérique de «preuve d’identité» (transparence). Si nous avons un système ouvert et fiable dans la vérification du contenu et de la composition, nous pouvons payer la propagation des mauvaises données et réduire l’impact le plus nocif de l’IA. Ce que nous voulons, c’est la décentralisation, transparente et accessible pour tout le monde – non seulement la connaissance la plus numérique est la plus numérique.
Je crois que c’est l’un des investissements publics les plus urgents de notre époque. Et la semaine dernière, j’avais des preuves que
Ténèbres, fausses déclarations et moments de panique
Lorsque l’obscurité de l’énergie qui ne s’est jamais produite par le Portugal et l’Espagne, je me suis retrouvé à Vienne lors de la réunion tenue par Bloomberg Associates, qui a rassemblé le DSI et les changements numériques de diverses villes européennes.
L’obscurité se produit précisément lorsque nous débatrons de notre importance stratégique. Je me prépare à intervenir l’une de mes plus grandes préoccupations: ininterrompue et non-gestion de l’IA. J’étais plus paniqué avec la commodité que nous faisions – encore – par ambition. (Et parfois la cupidité) des « éditeurs religieux », certaines personnes qui font la promotion de l’IA à n’importe quel prix
Cependant, nous ignorons toujours quelque chose car il est nécessaire: la nécessité de créer un environnement numérique fiable. Il existe une priorité urgente qui n’a pas besoin de progrès technologiques importants. Je n’ai pas fait référence à la solution. La « technologie profonde » qui est nécessaire pour fixer la défaillance de la structure de l’IA – est une tendance à créer des hallucinations et une production de données. (Le problème a été pire car Chatgpt est public depuis près de deux ans). Je parle de mesures simples et possibles que nous pouvons l’utiliser maintenant – parier avec la transparence et les connaissances.
Si ces outils sont utilisés, ils peuvent agir comme la première ligne de défense et les mauvaises données créées. AI rapporte KPMG / Melbourne. Confirmez ces besoins – 70% des répondants se réfèrent à la difficulté des informations qu’ils rencontrent en ligne car elles ne savent pas si le contenu est réel ou a été créé par l’IA et 64%. Il n’y a que 47% des élections de l’IA qui sont créées.
Ce jour-là, à Viennatrit, c’est devenu vrai. Peu de temps avant que j’intervienne, j’ai reçu un message: Cyber to European Energy Networks est la cause de l’extinction. Le texte a des détails incroyables – et est terriblement fiable. Même dans une pièce pleine d’experts numériques, je pense qu’il est nécessaire d’arrêter de quitter la pièce et de demander ce que c’est.
Après avoir profondément inhalé et recherché le bon moyen, j’ai trouvé la déclaration officielle du National Cyber Security Center. Le message qu’il a reçu était faux. – doit être construit à l’aide d’outils d’IA généraux, et bien que la vérité puisse être publiée plus ou moins en même temps, les fausses déclarations me parviennent en premier. C’est une véritable leçon: les mauvaises informations sont toujours réparties plus rapidement que la vérité.
Le sentiment d’incertitude demeure. C’est un rappel clair sur la vitesse à laquelle les mauvaises informations de l’IA peuvent se propager, et nous sommes à risque, même les plus prêts à détecter.
Cette période a été confirmée par quelque chose. Quand je crois toujours: notre infrastructure numérique doit être effectuée plus que sûre qu’elle est efficace. Vous devez être mérite et soutient la confiance. Parce que lorsque la confiance s’effondre, non seulement ils échouent au système – notre compréhension mutuelle de ce qui se passe réellement
Nous avons besoin d’une gouvernance plus forte. De l’éducation numérique intelligente et investissant sérieusement dans des infrastructures ouvertes et sûres qui ne sont pas seulement à protéger les informations – mais il est vrai que la conclusion du rapport est claire: la prévention des institutions et la confiance dans l’organisation pour développer et utiliser l’IA responsable comme la plus grande motivation de la confiance du public.
La réponse à ce tournant nécessite plus qu’une alerte – nécessite des options claires. Nous devons confirmer les connaissances. Il s’agit de la première ligne de prévention et de transparence. C’est une condition importante pour tout écosystème numérique de confiance, uniquement pour les citoyens qui ont été révélateurs et le système d’ouverture ne peut construire plus de ponts de confiance dans le monde en algorithme. Parce qu’il ne s’agit pas de préparation pour nous pour l’avenir de l’IA -it. Il s’agit de s’assurer que cet avenir est toujours facile à comprendre et est un humain.
Membres du PDG / comité de Porto Digital
Source link