Youtube étend sa lutte contre les deepfakes aux personnalités publiques
Politiques, journalistes, désormais visés. La plateforme de Google renforce ses défenses contre la désinformation générée par l'intelligence artificielle.

Youtube élargit son outil de détection des deepfakes aux personnalités publiques
Initialement lancé en octobre 2024 pour protéger les créateurs de contenu, le système de détection d'images deepfakes de YouTube s'étend désormais aux personnalités publiques. Cette extension, mise en place dans le cadre d'un programme pilote, vise à permettre aux détracteurs de vérifier si leur image est utilisée sans leur consentement dans des vidéos manipulées.
La fonctionnalité, qui fonctionne sur le modèle de Content ID, permet d'analyser les vidéos à la recherche de visages correspondant à des personnes inscrites au programme. Si une correspondance est détectée, la personne concernée peut demander la suppression du contenu, sous réserve de l'approbation de YouTube, qui prendra en compte ses politiques de confidentialité.
Cette évolution intervient dans un contexte de préoccupations croissantes concernant la propagation de fausses informations et de la manipulation de l'image publique. YouTube précise que cette mesure ne vise pas à censurer la parodie ou la satire, mais à prévenir les utilisations malveillantes des deepfakes, notamment à des fins de diffamation ou de désinformation politique.
Pour adhérer au programme, les personnalités publiques doivent vérifier leur identité en fournissant une vidéo d'elles-mêmes et une pièce d'identité officielle. Ces informations sont strictement réservées à la vérification d'identité et ne seront pas utilisées pour entraîner des modèles d'intelligence artificielle.
La question de la désinformation alimentée par l'IA est désormais au cœur des enjeux de communication. YouTube s'engage à renforcer ses outils de protection, mais la vigilance reste de mise pour contrer la prolifération de ces contenus.
