Logo - Jor2a.online
 Cicatrice française : un défi viral dangereux de TikTok déclenche la sonnette d

Cicatrice française : un défi viral dangereux de TikTok déclenche la sonnette d'alarme et déclenche une enquête


Abonnez vous sur
Telegram

L'Autorité italienne de la concurrence et de la garantie du marché (AGCM) a annoncé mardi avoir ouvert une enquête contre TikTok, car la plateforme ne dispose pas des systèmes appropriés pour surveiller les publications qui incitent au suicide , à l'automutilation et aux troubles alimentaires , qui violent les directives internes. du réseau social.

L'enquête implique la division irlandaise de TikTok, chargée de gérer les relations avec les consommateurs européens du réseau social, ainsi que ses unités britannique et italienne. L'AGCM a indiqué avoir effectué ce mardi une inspection, en collaboration avec l'Unité spéciale antimonopole de la police financière italienne, au siège italien de TikTok.
L'autorité italienne de la concurrence a expliqué qu'elle avait décidé d'ouvrir une enquête sur la plateforme après avoir détecté de nombreuses vidéos de jeunes affichant des comportements d'automutilation, dont le récent défi viral connu sous le nom de cicatrice française , qui consiste à se frapper le visage jusqu'à provoquer des ecchymoses qui donner l'apparence d'une cicatrice

La défense de la concurrence a contesté que TikTok n'ait pas mis en place de systèmes de surveillance adéquats pour surveiller les contenus publiés par des tiers, selon les paramètres de diligence requis , a déclaré l'AGCM, arguant que les utilisateurs particulièrement vulnérables, tels que les mineurs, sont exposés à postes non autorisés.

Il a également rappelé que TikTok n'applique pas ses propres règles pour supprimer les contenus potentiellement dangereux de son réseau social. Enfin, l'AGCM a précisé qu'elle enquêtera sur le fonctionnement de l'intelligence artificielle de la plateforme dans la diffusion de publications interdites.

Pour sa part, un porte-parole de TikTok cité par Reuters a réitéré que la société n'autorise pas les contenus qui montrent ou promeuvent des activités et des défis dangereux, le suicide, l'automutilation ou des comportements alimentaires malsains . Plus de 40 000 professionnels de la sécurité dévoués travaillent pour assurer la sécurité de notre communauté, et nous prenons un soin particulier à protéger les adolescents en particulier , a-t-il ajouté.



Afficher Plus


Dernières actualités


© 2023 ||Jor2a.online || Condition d'utilisation