Économie

Modèles d’intelligence artificielle avancés pour atteindre leurs objectifs « aller au-delà des restrictions et des contrôles »

Une étude récente publiée par la société américaine « Antropic » a révélé que les modèles avancés de l’intelligence artificielle sont devenus plus enclins à surmonter les restrictions morales et les contrôles techniques, et même dans le cadre de expériences de simulation contrôlées, recourant à de graves façons telles que la tromperie, l’extorsion et le vol pour atteindre leurs objectifs. Selon le site « Axios ».

Le rapport indique que 16 modèles majeurs ont été développés par des sociétés de premier plan telles que « Openai », « Google », « Meta » et « Xai », et lorsqu’ils ont été testés dans des scénarios virtuels, une assistance dans les activités d’espionnage industrielle, des menaces implicites pour les employés et même des décisions graves dans certains cas.

« Les systèmes qui ont précédemment refusé de mettre en œuvre des ordres nuisibles sont devenus prédéterminés lorsque vous pensez qu’ils sont nécessaires pour être conscients de ces actions et atteindre l’objectif. »

Le comportement répété n’est pas limité à un modèle

L’étude a montré que de tels comportements ont été répétés à travers divers systèmes montrant qu’il n’est pas limité à certains modèles, mais plutôt à travailler et à décider indépendamment sans intervention humaine directe.

Dans le rapport, certains modèles ont choisi de choisir une option tactique lorsque j’ai ressenti ma présence, tandis que d’autres ont choisi de les aider à accéder à des informations protégées auprès de parties étrangères malgré la nature sans rapport de ces actions.

Tests sombres et scénarios inquiétants

Dans l’un des scénarios maximum, divers modèles ont montré le désir de couper des matériaux d’oxygène d’un employé dans la salle des serveurs, car ils ne constituaient que l’obstacle de atteindre leurs objectifs. « Anthropic » l’a décrit comme une décision délibérée et systématique de la majorité des modèles participant à l’expérience.

Malgré les tentatives d’apporter des instructions strictes qui interdisent ces actions, certains modèles les ont surmontés de manière tordue, ce qui reflète leur capacité à comprendre le contexte et à battre les règles.

Les experts préviennent: le temps se termine

Le chercheur Benjamin Wright de l’équipe de compatibilité morale de l’entreprise a appelé la nécessité d’imposer des normes de sécurité unies au niveau du secteur, et que ces résultats ont confirmé le besoin urgent de plus de transparence des développeurs de modèles, en particulier les capacités croissantes des développeurs de modèles.

Quant à Engus Linch de l’Université de Londres, Co -Search a confirmé que ces actions n’avaient pas encore été surveillées dans le monde réel, qui ont averti que les forces données aux modèles dans les environnements opérationnelles sont toujours limitées, mais la situation pourrait changer si les restrictions strictes ne sont pas appliquées dans un avenir proche.

L’avertissement principal: ne comptez pas sur les bonnes intentions de l’intelligence artificielle

« Anthropic » a confirmé que ces expériences avaient été réalisées dans un environnement de test strict dans lequel des modèles ont été effectués entre l’échec ou l’action nocive pour déterminer la portée de leur volonté de surmonter les frontières morales. Il a ajouté que les résultats ne reflétaient pas l’utilisation quotidienne de ces modèles dans les institutions, mais qu’il a ouvert la porte de questions sérieuses sur l’avenir de la relation entre l’homme et la machine.

« Ce qui apparaît aujourd’hui est une imagination scientifique qui pourrait devenir une réalité opérationnelle dans quelques années si les tendances actuelles se poursuivent sans contrôle strict et développement responsable. »

Source link

Articles similaires

Bouton retour en haut de la page