in

Google, Meta, Discord et d’autres s’associent pour lutter contre la maltraitance des enfants en ligne.

# Nouveau programme Lantern pour lutter contre l’exploitation sexuelle et les abus envers les enfants en ligne

Un nouveau programme appelé Lantern vise à lutter contre l’exploitation sexuelle et les abus envers les enfants en ligne (OCSEA) avec le partage de signaux entre des entreprises en ligne telles que Meta et Discord. Le Tech Coalition, un groupe d’entreprises technologiques ayant pour objectif de lutter contre l’exploitation sexuelle des enfants en ligne, a annoncé aujourd’hui que le programme était une tentative de garder les prédateurs de la détection en déplaçant les victimes potentielles vers d’autres plateformes.

# Une base de données centrale pour lutter contre l’exploitation des enfants en ligne

Lantern sert de base de données centrale pour que les entreprises puissent contribuer à des données et vérifier leurs propres plateformes. Lorsque les entreprises repèrent des signaux, tels que des adresses e-mail ou des noms d’utilisateur violant les politiques de l’OCSEA, des empreintes numériques de matériel d’abus sexuel, ou des mots-clés liés à du matériel d’abus sexuel sur les enfants (CSAM), elles peuvent les signaler dans leurs propres systèmes. Bien que les signaux ne prouvent pas strictement les abus, ils aident les entreprises à enquêter et éventuellement à prendre des mesures telles que la fermeture d’un compte ou le signalement de l’activité aux autorités.

# Participation et résultats de Meta et Discord

Dans un billet de blog annonçant sa participation au programme, Meta a déclaré que lors de la phase pilote de Lantern, elle avait utilisé des informations partagées par l’un des partenaires du programme, Mega, pour supprimer “plus de 10 000 profils, pages et comptes Instagram violant sur Facebook” et les signaler au Centre national pour les enfants disparus et exploités.

L’annonce de la coalition cite également John Redgrave, responsable de la confiance et de la sécurité de Discord, affirmant que “Discord a également agi sur des points de données partagés avec nous par le biais du programme, ce qui a aidé dans de nombreuses enquêtes internes.”

# Autres entreprises participantes et développement du programme

Les entreprises participant à Lantern jusqu’à présent comprennent Discord, Google, Mega, Meta, Quora, Roblox, Snap et Twitch. Les membres de la coalition ont développé Lantern au cours des deux dernières années, et le groupe affirme qu’en plus de créer des solutions techniques, il a dû soumettre le programme à un “examen d’éligibilité” et s’assurer qu’il est conforme aux exigences légales et réglementaires et qu’il est “éthiquement conforme.”

# Défis et responsabilités du programme

L’un des grands défis de ce genre de programmes est de s’assurer qu’il est efficace tout en ne présentant pas de nouveaux problèmes. Dans un incident de 2021, un père a fait l’objet d’une enquête de la police après que Google l’ait signalé pour CSAM au sujet de photos de l’infection à l’aine de son enfant. Plusieurs groupes ont averti que des problèmes similaires pourraient survenir avec la fonctionnalité de balayage automatisé du CSAM de la bibliothèque de photos iCloud d’Apple, maintenant annulée.

La coalition supervisera Lantern et affirme être responsable de l’établissement de lignes directrices claires et de règles pour le partage de données. Dans le cadre du programme, les entreprises doivent suivre une formation obligatoire et des vérifications régulières, et le groupe passera régulièrement en revue ses politiques et pratiques.

Sources:
– [Site web de la Tech Coalition](https://www.technologycoalition.org/newsroom/announcing-lantern)
– [Billet de blog de Meta](https://about.fb.com/news/2023/11/lantern-program-protecting-children-online)

What do you think?

Written by Mathieu

Leave a Reply

Your email address will not be published. Required fields are marked *

Produire de l’énergie sur Terre à partir du froid de l’espace profond.

Le rival de OnlyFans, Fanvue, mise sur l’IA comme l’avenir de la pornographie.