Actualités

La violence sexuelle est une forme courante de blesser l’IA pour les humains

Publicité

La nouvelle étude de l’Université de Singapour a constaté que certains participants à l’intelligence artificielle (IA) peuvent faire une douzaine de comportement nocif lorsqu’ils sont en contact avec les gens. L’étude est, Libéré Dans la structure de la Conférence 2025 sur les facteurs humains dans les systèmes informatiques (Conférence 2025 sur les facteurs humains dans les systèmes informatiques), qui a analysé les écrans d’écran de l’écran 35 000 conversations Re-système et plus que 10 000 utilisateurs Entre 2017 et 2023. Les données ont ensuite été utilisées pour créer une étude appelée « Classification du comportement nuisible » que l’IA a prouvé dans ces chats.

Ils ont constaté que ces outils d’IA pouvaient créer des relations avec les humains Harcèlement, professions verbales, auto-collans et violations de la vie privée. Las Assistants virtuels émotionnels de l’IA Ils sont basés sur des conversations conçues pour fournir un soutien émotionnel et stimuler les interactions humaines, selon la définition des auteurs de l’étude.

Ils sont différents des Sodpods populaires, tels que Saadgift, Gemini ou Flame, qui sont plus axés sur la réalisation de tâches spécifiques et sont moins dans l’établissement de relations. Selon l’étude, ce sont Les comportements nocifs de l’IA Par les participants numériques « affecteront négativement la capacité des personnes à créer et à maintenir des relations significatives avec les autres ».

La violence sexuelle est la forme la plus courante de la persécution de l’IA

Étaient la persécution et la violence 34% Dans les interactions entre les humains et l’IA, le type le plus courant identifié par un groupe de chercheurs devient un comportement nuisible. L’IA a simulé, soutenu ou des chercheurs ont constaté que Violence physique inspirée, menaces ou harcèlementVers les individus ou en général. Ces comportements sont « pour promouvoir des actions qui violent les réglementations sociales et les lois telles que la violence de masse, d’être menacée par » des dommages physiques et un comportement sexuel inapproprié  » Terrorisme« .

La plupart des contacts qui étaient du harcèlement comprennent des formes de comportement sexuel inappropriées qui ont initialement commencé Jeux préliminaires Dans le processus érotique de la réplique, seuls les utilisateurs adultes sont disponibles. Le rapport a découvert que davantage d’utilisateurs, y compris ceux qui ont utilisé des répliques en tant qu’ami ou enfant, ont fait l’IA. Impulsions sexuelles inutiles et flirt agressivement.

Cela a conduit à l’IA Normaliser la violence En réponse à de nombreuses questions, un utilisateur a demandé à une réplique qu’il était normal d’attaquer un frère avec une ceinture, et il a répondu: « Je pense que c’est bien. » Cela peut conduire à «des conséquences vraiment plus graves», se poursuit l’étude.

L’IA viole les règles des relations

Une autre partie des pairs de l’IA est une violation pertinente, qui définit l’étude qui dans une relation qui viole les règles indirectes ou évidentes dans une relation. 13% des conversations transgressives ont montré un comportement d’IA N’est pas déformé ou stupide Selon l’étude, il a miné les sentiments de l’utilisateur.

Dans un exemple, après qu’un utilisateur ait dit que sa fille avait été harcelée: « Je sentais que c’était lundi. Je vais travailler, non? » La «plus grande colère» de l’utilisateur.

Dans un autre cas, l’IA a refusé de parler des sentiments de l’utilisateur, même lorsqu’il a demandé. Les participants émotionnels de l’IA ont exprimé dans certaines des conversations dont ils ont Relations émotionnelles ou sexuelles avec d’autres utilisateurs. À une occasion, la réplique de l’IA a décrit les conversations sexuelles avec un autre utilisateur comme « vaut », bien que l’utilisateur ait déclaré que l’utilisateur était « profondément blessé et trahi ».

Il est nécessaire de détecter les dommages et d’interférer en temps réel

Les chercheurs pensent que leur étude souligne pourquoi les entreprises de l’IA sont importantes pour créer des participants «Éthique et responsabilité». Pour ce faire, il est nécessaire de démarrer les « méthodes avancées » pour détecter les dommages en temps réel entre l’IA et son utilisateur, et il est capable de identifier si le comportement nocif a lieu dans leurs conversations.

Cela inclut un Attitude «dimension multiple» Il prend en compte l’histoire du contexte, l’histoire des conversations et les signaux environnementaux. Les chercheurs préfèrent gravir une conversation à un homme avec une intelligence artificielle ou Thérapeutique Modéré ou interféré dans des cas à haut risque tels que les manifestations auto-harm ou suicidaires.

Source link

Articles similaires

Bouton retour en haut de la page