Sportif

La plupart des gens ne font pas confiance à l’intelligence artificielle malgré la propagation de …

À la lumière de la propagation accélérée des techniques d’intelligence artificielle dans le monde, et au milieu de la dépendance croissante à leur égard dans les secteurs du travail, de l’éducation et de la vie quotidienne, des questions fondamentales se posent sur l’étendue de la confiance des gens dans cette technologie, qui est devenue les caractéristiques du monde. Une nouvelle étude mondiale, qui est la plus grande du genre jusqu’à présent, révèle un écart croissant entre les avantages attendus de l’intelligence artificielle et les risques qui provoquent l’anxiété des individus et des institutions.

Ajouter une publicité

Alors que la majorité des gens présentent une utilisation consciente et fréquente des applications d’intelligence artificielle, les taux de confiance en eux sont encore faibles, au milieu de la faible conscience et de la formation, et une absence claire de gouvernance active, que ce soit au niveau institutionnel ou législatif.


l’étude
L’Université de Melbourne en coopération avec KPMG, met en évidence ce paradoxe et stimule l’alarme de « l’écart de gouvernance » qui peut menacer les chances d’adopter l’intelligence artificielle en toute sécurité et durable à moins qu’elles ne soient traitées rapidement et décisives.

Une étude mondiale a révélé la confiance en l’intelligence artificielle que plus de la moitié des personnes du monde ne sont pas prêtes à faire confiance à l’intelligence artificielle, qui reflète une tension essentielle entre ses avantages clairs et ses risques perçus.

Les principaux résultats

À l’ère de l’intelligence intelligente, 66% des personnes utilisent régulièrement l’intelligence artificielle et 83% pensent que son utilisation atteindra un large éventail d’avantages.

Cependant, la confiance – un élément central dans l’acceptation de l’intelligence artificielle – est toujours un défi décisif. Seulement 46% des personnes du monde entier sont prêtes à faire confiance aux systèmes d’intelligence artificielle, et cela est lié au faible niveau de connaissance de l’intelligence artificielle – car seuls deux (39%) sur cinq ont indiqué qu’ils avaient reçu une forme de formes de formation, et seulement 40% ont indiqué que leurs lieux de travail avaient des politiques ou des instructions sur l’utilisation de l’intelligence obstétricaine.

Il existe un mandat populaire pour une organisation nationale et internationale de l’intelligence artificielle, avec seulement 43% estime que les organisations actuelles sont suffisantes.
Les données indiquent que moins de la moitié des institutions peuvent utiliser l’intelligence artificielle sans support de caféine ni gouvernance.

Une étude de la «confiance, des positions et de l’utilisation de l’intelligence artificielle: une étude mondiale 2025» dirigée par le professeur Nicole Gilsby, responsable du département de confiance à l’Université de Melbourne, et le Dr Steve Loki, une collègue de recherche au Melbourne College, en coopération avec KPMG, est la plus complète étude mondiale de la confiance, de la confiance et de l’attribution du public.

L’étude comprenait plus de 48 000 personnes de 47 pays entre novembre 2024 et janvier 2025.

Il a constaté que bien que 66% des personnes utilisent régulièrement l’intelligence artificielle, moins de la moitié des participants sont prêts à lui faire confiance (46%). Comparaison avec une étude précédente menée avant le lancement de Chatgpt en 2022, les gens sont devenus moins confiants et plus préoccupés par l’intelligence artificielle à mesure qu’elle augmente.

Les individus et les institutions sont plus susceptibles de faire confiance aux systèmes d’intelligence artificielle lorsqu’ils comprennent comment il fonctionne, mais l’étude montre que seulement 39% ont reçu une formation en intelligence artificielle. Conformément à ce faible pourcentage, environ 48% ont indiqué qu’ils avaient une connaissance limitée de l’intelligence artificielle, notant qu’ils ne comprennent pas quand ni comment il est utilisé.

Le professeur Gilsby a déclaré: « La confiance du public dans les techniques de l’intelligence artificielle et son utilisation sûre et fiable est une question essentielle pour l’acceptation et l’adoption continue », a déclaré le professeur Gilsby.
Elle a ajouté: « Compte tenu des effets transformateurs de l’intelligence artificielle sur la société, le travail, l’éducation et l’économie – l’implication de la voix du public dans ce dialogue n’a jamais été plus importante. »

Intelligence artificielle au travail et à l’éducation

L’âge de l’intelligence artificielle a commencé, car 58% des employés de l’intelligence artificielle l’utilisent – et l’utilisent un tiers (31%) par semaine ou quotidiennement.
Cette utilisation élevée réalise un ensemble d’avantages, car la plupart des employés ont signalé une augmentation de l’efficacité, de l’accès à l’information et de l’innovation. Près de la moitié des participants ont indiqué que l’intelligence artificielle avait augmenté les activités qui génèrent des revenus.

Cependant, seulement 60% des institutions offrent une formation responsable en intelligence artificielle et seulement 34% ont indiqué qu’elles avaient des politiques ou des directives organisationnelles pour utiliser des outils d’intelligence obstétricale.

« L’utilisation de l’intelligence artificielle dans les environnements de travail crée des risques complexes pour les institutions, et il y a un écart de gouvernance élargie », a déclaré David Watson (sur la photo), directeur adjoint de KPMG dans les zones de la Couronne britannique.

L’étude a révélé qu’environ la moitié des employés admettent l’utilisation de l’intelligence artificielle d’une manière qui contredit les politiques d’entreprise, notamment le téléchargement d’informations sensibles aux outils publics gratuits tels que Chatgpt.

Il a ajouté: « Une utilisation illimitée peut être le résultat de l’échec d’une gouvernance artificielle responsable. Dans les économies avancées, seulement 55% des employés ont atteint que leurs institutions ont des mécanismes pour soutenir l’adoption de l’intelligence artificielle et de son utilisation responsable, y compris une stratégie et une culture réglementaires appropriées, une formation suffisante et des opérations de gouvernance efficaces. »

Selon l’étude, de nombreux utilisateurs dépendent des résultats de l’intelligence artificielle sans vérifier leur précision (66%), et ils font des erreurs dans leur travail en raison de l’intelligence artificielle (56%), et ce qui augmente la complexité de ces risques, c’est que plus de la moitié des employés (57%) disent qu’ils cachent leur utilisation de l’intelligence artificielle et des œuvres d’affichage produites par l’intelligence artificielle comme leur propre entreprise.

Cette carence en gouvernance est également évidente dans les établissements d’enseignement, car il n’a que des demi-polices, des ressources ou une formation à l’utilisation responsable de l’intelligence artificielle.

Intelligence artificielle dans la société

73% des personnes ont déclaré avoir vu des avantages personnels de l’intelligence artificielle, notamment la réduction du temps pris dans des tâches fréquentes, l’amélioration de la personnalisation, la réduction des coûts et l’amélioration de l’accès.

Cependant, en revanche, quatre sur cinq ont exprimé leur inquiétude concernant les risques et deux expériences négatives sur cinq, allant de la perte d’interaction humaine, des risques de cybersécurité, de la propagation des informations trompeuses et des résultats inexacts, à la perte de compétences.

70% croient que l’organisation de l’intelligence artificielle est nécessaire, mais seulement 43% voient que les lois actuelles sont suffisantes.

Il existe une demande générale claire de lois internationales et de partenariat entre les gouvernements et les industries pour réduire ces risques. En outre, 87% des participants souhaitent que des lois plus fortes combattent des informations trompeuses résultant de l’intelligence artificielle et s’attendent à ce que les plateformes des médias et des médias sociaux réalisent des audits d’information plus forts.

David a poursuivi: «Bien que cette étude n’ait pas inclus les participants des zones affiliées à la Couronne, les institutions de nos régions sont confrontées à des défis similaires. Dans une certaine mesure, l’intelligence artificielle faisait partie de la scène commerciale pendant des années, mais la montée rapide et l’arrivée générale large aux systèmes avancés, en particulier l’intelligence obstétricale, ont apporté les promesses d’intelligence artificielle et de ses risques associés au premier plan.»

«Les institutions qui se tournent vers l’avenir ne dépendent pas de l’aléatoire dans l’adoption de l’innovation. Ils suivent plutôt une approche délibérée et stratégique, car elles évaluent soigneusement si l’investissement dans l’intelligence artificielle et l’automatisation atteindra des avantages commerciaux. Il cherche à équilibrer entre l’innovation et les besoins opérationnels, la conformité organisationnelle et la stratégie commerciale à long terme, et activement pour relever ces défis et convertir les Risks organisationnels dans la stratégie des opportunités.».

Source link

Articles similaires

Bouton retour en haut de la page