Actualités

Obanai suggère que la sécurité de leur IA est flexible si les concurrents sont utilisés avec les organisations de risque

Publicité

Open a dit qu’il considérerait Ajustez vos exigences de sécurité si une entreprise rivalise avec un modèle d’intelligence artificielle à risque élevé sans protection. L’entreprise a écrit dans son rapport comme «structure de produit» et si une autre entreprise commence Modèle c’est une menaceCela peut être fait après que le «danger» a été «grave» que le «panorama de risque» a changé.

Le document explique comment l’entreprise surveilleÉvalue, fournit et protège des dangers Ils soulèvent les modèles AI. « Si une autre frontière commence par un système à risque élevé sans protection comparable, nous pouvons ajuster nos besoins », a écrit un article de blog publié mardi.

« Cependant, Nous confirmerons fortement si le risque est le panorama en premier Ceci est en fait changé et nous reconnaîtreons publiquement que nous réparons et que nous l’évaluerons L’ajustement n’augmente pas significativement le risque général Gardez de graves dommages et plus de protection au niveau le plus de sécurité. « 

Avant de faire un échantillon, Effectue Openai Evaluer Si cela provoque de graves dommages en identifiant de manière fiable, mesurant, de nouveaux risques graves et inappropriés et en installant une protection contre eux. Ensuite, classez ces risques comme bas, médias, élevés ou importants.

Certaines des compétences de risques que l’entreprise trouve déjà Ses modèles dans les domaines de la biologie, de la chimie, de la sécurité Internet et de la traversée. L’entreprise évalue également les nouveaux risques, car son modèle d’IA peut fonctionner Longtemps sans intervention Quelle menace pour les champs humains, auto-rémitté et nucléaires et radiologiques.

«Les risques d’insistance», En tant qu’utilisation de Saladgift pour les campagnes politiques ou les groupes de pression, ils seront menés en dehors du cadre et au lieu de, ils seront examinés par eux Spécification du modèleDocument pour déterminer le comportement de Chadjift.

Réduire les tâches de sécurité

L’ancien chercheur d’Opanai Steven Atler X Signaler les mises à jour Le produit de l’entreprise montre que « il réduit tranquillement ses tâches de sécurité ». Dans son message, il a souligné la détermination de l’entreprise à tester les « versions raffinées » de ses modèles d’IA en décembre 2023, Mais il a souligné que l’Openi changera maintenant Essayez des paramètres ou des modèles formés qui sont publiés « pesos ».

« Les gens ne sont pas complètement d’accord Il a déclaré: « Il est préférable d’éliminer l’engagement à maintenir les modèles raffinés et à ne pas réaliser l’engagement à le maintenir. » Ouvert était clairement Cela a été inversé dans l’engagement précédent. « 

Les nouvelles ont proposé la nouvelle famille de modèles d’IA cette semaine en tant que GBT -4.1 Carte informatique Aucun rapport de sécurité. «Euronevs Next» a été invité à ouvrir Par un rapport de sécuritéMais la réponse n’était pas disponible au moment de la sortie.

La nouvelle vient après 12 anciens employés Openai A. fournit Écrit Dans le cas d’Elon Musk contre Opanai, il est dit qu’une transition dans une entreprise de profit entraînera des réductions de sécurité.

Source link

Articles similaires

Bouton retour en haut de la page