Monde

Le contenu dangereux à Tiktok mène à un nouvel avertissement d’Amnesty International-Internet.

L’organisation a été développée en 2023. L’enquête a conclu que Dans le flux « For You » de Tiktok, les enfants et les jeunes utilisateurs risquent d’être attirés par un « trou noir » qui est toxique de dépression et de contenu lié au suicide.Problèmes que l’entreprise n’a pas été accepté ou offert une solution spécifique pour condamner Amnesty International (AI) dans un communiqué.

Organisation de notification La possibilité d’affecter bien-être, en particulier des jeunes utilisateursLié à un contenu intense lié aux aliments violents et au contenu lié à l’image

Au Sommet mondial du monde concernant l’amnistie numérique de l’amnistie internationale en 2024 Alan, le participant à 23 ans d’Argentine prévient que l’un des principaux problèmes de Tiktok en ce moment est. «Les gens reçoivent une plate-forme qui n’est pas pour les enfants âgés de neuf et dix ans, cinquante-cinq.« Rachana, 23 ans -eld -ell du Népal souligne que la plate-forme » doit être contrôlée d’une manière « et peut être fait par le gouvernement et le tiktok lui-même –

Enquête sur l’amnistie internationale, qui s’est tournée vers des comptes pour simuler l’adolescent de 13 ans. 20 minutes après le compte et le signal d’intérêt pour la santé mentale ont été créés plus de la moitié des vidéos Tiktok impliquées dans des problèmes de santé mentale.

« Beaucoup de ces vidéos suggérées à la fois, romantiques, normales ou de suicide de soutien »

C’est l’une des principales conclusions de L’enquête a été publiée en novembre 2023. Concernant les risques des droits des enfants et des jeunes dans la plate-forme de réseau social en ligne la plus populaire

En répondant aux questions de l’IA sur les changements utilisés depuis l’enquête Tiktok déclare que les mesures de bien-être les plus connues sont efficaces lors de l’étude sans réaliser le problème des «trous noirs» de l’application ou en présentant des preuves de nouvelles mesures.

Selon l’enquête Le modèle commercial envahissant de Tiktok suit tout ce que les utilisateurs font sur la plate-forme qui essaie de prédire, le statut émotionnel et bien pour montrer plus de confidentialité dans «  Feed for You  ». Pour conduire à la prochaine voie, même si le contenu est dangereux

L’IA prend en charge des mesures préventives efficaces, qui est d’empêcher les utilisateurs d’être à risque de tomber sous une forme addictive de drogue et d’un piège de contenu dangereux et dangereux.

En 2023, Amnesty International a publié deux rapports qui se concentrent sur les violations que les enfants et les jeunes utilisant Tiktok. L’un des rapports « Drive dans l’obscurité: Tiktok fait la promotion des idées d’auto-harm et de suicide.« Cela montre que les besoins des jeunes utilisateurs. Tiktok, comment leurs problèmes de santé mentale peuvent-ils empirer, comme la dépression, l’anxiété et l’auto-stimulation.

Autres rapports Je me suis senti révélé. « : Coincé sur les montres de Tiktok.«Cela montre que la technique de la collecte de données de Tiktok qui viole les droits de l’homme est soutenue par la participation des utilisateurs nuisibles.

(Avec le Portugal)

Source link

Articles similaires

Bouton retour en haut de la page