Monde

Chatgpt ne peut pas remplacer les experts en santé. Les commandes du médecin alertes à l’IA – l’ordinateur utilise des risques.

Il est nécessaire de dire que l’IA n’est pas et ne peut pas remplacer le jugement clinique médical ou le contact humain.– Le diagnostic est une partie importante de la loi médicale, qui n’est pas seulement liée mais seulement aux objectifs mais aussi à l’interprétation du contexte, à l’écoute active et à l’attention de « Carlos Cortes a déclaré dans la déclaration de Lusa.

Le président a ajouté que L’IA doit être considérée comme un outil d’aide à la décision clinique et ne représente pas un diagnostic indépendant.

Carlos Corts a confirmé que l’outil AI n’a pas le diagnostic car Il y a un manque de « preuves scientifiques solides, de mécanismes d’inspection stricts et de transparence, tous les algorithmes qui aident les médecins à comprendre et à faire confiance aux décisions recommandées ». «  »

Le comité d’intelligence artificielle de l’ordre du médecin souligne que « L’acceptation de l’IA en médecine ne devrait se produire que selon l’inspection scientifique, qui a continuellement décrit la responsabilité et les soins médicaux.– L’intégration de l’IA à l’écoulement clinique doit respecter les principes éthiques tels que l’indépendance, et non la malléphice et la justice –

Dans le cas d’un diagnostic incorrect, le président déclare que « Les conséquences peuvent être très graves: le retard du début du traitement suffisant de l’état clinique, l’exposition à un traitement inutile ou inutile, et même la perte de la vie humaine. »Bien qu’ils ne soient pas responsables de la moralité

en outre L’absence d’explications dans de nombreux algorithmes rend difficile d’identifier les erreurs, de recevoir la portée des responsabilités et de menacer la confiance. Des patients en médecine et en médecine

L’officier a également dit que Au Portugal, il n’y a pas de cas où l’IA utilise des résultats cliniques pertinents.Bien que le manque de cas ne puisse pas être confus, il n’y a aucun risque

« L’utilisation de la technologie de harcèlement nécessite une surveillance de la capacité de vérifier le système de déclaration avec une structure et des règles proactives. »Parce que le pays n’a pas d’agence dédiée à l’examen de l’IA en termes de santé, qui est le représentant de « l’écart intense de la stabilité clinique directement du patient et de l’intégrité de la loi médicale », a déclaré le président.

La déclaration de bastonaire s’est produite après une plate-forme de spécification d’avertissement. Circulation du site Web et réseaux sociaux de certifications de ceux qui diagnostiquer le modèle d’IA.

Par exemple, « j’ai demandé à Chatgpt de lire ma main et il a détecté le cancer de la peau » ou « le diagnostic de chatppt d’un cancer pendant un an avant que le médecin » ne circule sur un réseau social en ligne, déclarant que les outils d’IA peuvent faire un diagnostic médical.

cependant, Les résultats des chatbots AI sont possibles. Les informations de formation peuvent ne pas être fiables et incapables de suivre le médecin que les médecins font.Plateforme signifie

Source link

Articles similaires

Bouton retour en haut de la page