Des recommandations médicales aux problèmes personnels: 5 sujets pour éviter de discuter avec chatgpt – conseils

Les chatbots tels que le chatgpt sont utiles, mais lorsqu’ils sont adoptés adoptés Plus de gens utilisent ces outils pour demander un soutien émotionnel ou aider à faire face aux défis personnels et les résultats créent des préoccupations.–
Les médias étrangers ont signalé de nombreuses éditions. Dans le cas des utilisateurs qui ont diminué la santé mentale après avoir développé un lien émotionnel avec Chatbot– par exemple, dans le cas de personnes hospitalisées après l’épisode Raving mais aussi de ceux qui ont fini par leur vie
Endormi TuteurCe phénomène a été expliqué: « C’est un psychopathe causé par la discussion » et Les experts ont averti que l’utiliser pendant la crise émotionnelle peut aggraver la situation.Parce que ces outils ne sont pas créés pour remplacer les experts par des qualifications.
Après avoir fait face à diverses critiques sur l’échec en réponse à ce phénomène OpenAI a annoncé un ensemble de modifications de l’opération de Chatbot.– Dans la déclaration de la société, dirigée par Sam Altman Réaliser que « L’IA peut sembler réagir et est plus personnel que la technologie précédente, en particulier pour les personnes faibles, qui passent le moment de souffrance mentale ou plus d’émotions. »
Openai admet qu’il y a de nombreux cas. O Modelo 4oC’est « nourrir » le chatpt « Il n’est pas en mesure de reconnaître les signes de symptômes espiègles ou de s’appuyer sur les émotions de manière appropriée. »– La technologie indique qu’elle continuera d’améliorer les modèles et de développer des outils qui vous aident à répondre à ces défauts.
À partir de maintenant sur chatppt àPrésentation des notifications pour encourager les utilisateurs à se reposer– De plus, au lieu de répondre directement aux questions sur les défis personnels Chatbot aidera les utilisateurs à refléter ces thèmes et à « peser » les avantages et les inconvénients « –
Chatgpt alertera les utilisateurs lorsqu’ils auront une session active trop longue, les stimulant à détruire.
Crédit: Openai
« Data -title = » openai | Les nouvelles qualifications de Chatgpt – des conseils médicaux aux problèmes personnels: 5 sujets pour éviter de discuter avec Chatgpt – Tek News « >
Récemment dans l’épisode de Pod Cast Ce week-end dernier Avec le comédien Theo von Sam Altman, j’ai averti que l’utilisation de Chatgpt pour trouver des réponses pour des problèmes personnels, pas une bonne idée.N’oubliez pas que l’opposé de ce qui est arrivé au thérapeute médical ou à l’avocat ne maintient pas le secret entre les utilisateurs et le chatbot.
Pour vous aider à obtenir la meilleure fête du chatbot d’OpenaiComme d’autres outils d’IA similaires et prendre plus de décisions d’informations Nous rassemblons cinq sujets qui devraient éviter votre conversation.–
Diagnostic et suggestions de santé
Chatgpt ne doit pas être utilisé comme un outil de diagnostic pour des problèmes de santé possibles, qu’ils soient corps ou esprit. Tout comme si vous recherchiez des conseils sur votre maladie ou votre peur, ou lorsque vous souhaitez interpréter les résultats de l’analyse ou des examens
Mis à part les problèmes liés au manque de précision ou de vérité Il est nécessaire de considérer que les informations que vous avez saisies ne sont pas protégées par la même règle de maintenance secrète qu’une directive pour les experts en santé.–
Comme spécifié OpenaiChatgpt peut également vous aider à préparer un ensemble de questions pour que le prochain médecin se rende au bureau. Mais il faut prendre particulièrement soin, sans compter toute information qui peut être spécifiéeJennifer King, une experte du Stanford Institute for Human Artificial Intelligence-Kennine Wall Street Journal–
Conseil des finances ou du droit
Comme un médecin Chatgpt n’est pas un avocat ou un comptable.– Il est vrai que le chatbot peut aider à «déchiffrer» des concepts complexes. Mais ne doit pas être utilisé pour remplir des documents juridiques, des budgets fiscaux ou des décisions avec de réels effets financiers ou lois
Comme décrit dans les détails de l’affaire que vous souhaitez corriger Chatbot ne connaît pas sa réalité.– De plus, les informations de formation peuvent être dépassées, ce qui signifie qu’elle peut ne pas refléter les changements qui se produisent dans les règles fiscales ou les règles juridiques. Résultant en une grave erreur
Bien que de nombreux experts avertissent lorsque de graves problèmes sont à risque, il est préférable de compter sur des professionnels. N’oubliez pas que garder le secret est un facteur important et en suggérant que des informations, telles que les numéros des contribuables, les bénéfices de l’État, les pertes ou les données de certification bancaire, peuvent recevoir des risques de sécurité, qui comprennent la fraude, l’auto-stède ou le cyber.
Contenu illégal ou peut être dangereux
Parlez aux chatbots des activités illégales que vous faites ou essayez de recevoir des suggestions sur les pratiques dangereuses.Comme la production de substances illégales, l’accès illégal aux systèmes informatiques au milieu d’autres façons d’échapper à la loi Ce n’est pas seulement dangereux. Mais a toujours un effet juridique grave
Dans le même épisode de Pod Cast dernier le week-end dernier Sam Altman prévient que les conversations avec Chatgpt sont nécessaires comme preuve d’une action en justice.– « Si vous parlez à Chatgpt à propos de quelque chose de délicat et qu’il y a un procès plus tard, nous devrons peut-être préparer ces informations », a déclaré le personnel.
Informations personnelles secrètes
Vous ne devez pas saisir les informations en tant que nom complet ou toute information qui peut vous identifier par vous-même.– Dans le cas de l’évasion, vos données peuvent être explorées par les cybercriminels. Même dans un travail dangereux, comme demander de l’aide pour mettre à jour le mémo Rose, en évitant ce type de données dans le bal
Il peut s’agir d’une tentation de se tourner pour utiliser Chatgpt pour vérifier l’e-mail, résumer la réunion ou analyser les documents de travail. Mais encore une fois, les informations que vous recommandez ne sont pas protégées comme vous le pensez.
Partagez des documents au sein d’une réunion personnelle ou d’autres informations secrètes au travail. Est un représentant des violations professionnelles ou même une confidentialité en vertu du contrat– ainsi que le partage d’informations clients ou de personnes personnelles
L’important est de se rappeler que AI Chatbots n’agit pas comme un « fonds numérique », que vous pouvez conserver le mot de passe en toute sécurité.– Dans ces cas, vous devez choisir d’utiliser des outils spécialement conçus à cet effet, comme Gestionnaire de mots de passe–
« Dois-je mettre fin à la relation? », « Est-il temps de changer votre carrière? » Vaut-il mieux s’échapper de cette personne? « L’exemple de la question pour éviter de discuter avec ChatGpt Chatbot peut sembler compréhensif et soutenu mais Pas prêt à donner suffisamment de réponses aux questions sur les conflits personnels et à avoir un impact significatif sur les décisions de vie complexes et complexes ou les questions éthiques délicates.–
Qui est différent des humains. Les outils d’IA n’ont pas d’intelligence émotionnelle et dans certains cas. Peut être interprété de manière incorrecte sur le fait qu’ils essaient de transmettre dans la conversation, entraînant une réponse dangereuseSurtout dans le cas où l’utilisateur est plus fragile
Il est important de se rappeler que si vous êtes confronté à une crise et à des besoins de soutien Devrait rechercher des personnes qui peuvent écouter, comprendre et recommander, que ce soit la famille, les amis ou les experts en santé–