YouTube a décidé de s’attaquer frontalement à la prolifération du « AI slop » qui a envahi sa plateforme depuis 2024. Le PDG Neal Mohan a confirmé que la détection et la suppression de ces contenus générés par intelligence artificielle figurent parmi les priorités absolues de 2026.
En décembre 2025, plus de 20 % des vidéos mises en ligne présentaient des signes de génération automatique. Le phénomène a pris une telle ampleur que YouTube a dû mobiliser ses équipes d’ingénieurs pour renforcer les systèmes hérités de la lutte contre le spam et le clickbait. L’entreprise a donc réactivé ses protocoles de filtrage en y intégrant des modèles d’analyse sémantique capables d’identifier les séquences répétitives et les visuels artificiels.
Une nouvelle fonctionnalité a fait son apparition en mars 2026. Les utilisateurs voient surgir un encadré leur demandant « Est-ce que cela ressemble à du AI slop ? ». Le dispositif, qui s’appuie sur les réponses de millions de spectateurs, alimente un vaste programme d’entraînement algorithmique. Officiellement, il s’agit d’améliorer la détection des contenus de faible qualité. Officieusement, des développeurs soupçonnent que ces données servent aussi à perfectionner les propres modèles génératifs de Google.
Neal Mohan a écrit que « les frontières entre créativité et technologie se brouillent » et que YouTube doit « garantir que l’intelligence artificielle reste un outil et non un substitut ». L’entreprise a donc instauré une obligation de transparence. Tout créateur doit signaler lorsqu’une vidéo a été altérée ou produite à l’aide d’un outil d’IA. Les contenus jugés trompeurs ou nuisibles sont retirés sans délai.
Le dispositif de « likeness detection » a été étendu à des millions de membres du programme partenaire. Il repère automatiquement les visages utilisés sans autorisation dans des deepfakes. En décembre, YouTube a aussi commencé à tester un système de signalement communautaire pour les vidéos suspectes. L’outil s’appuie sur la reconnaissance faciale et sur la comparaison des métadonnées d’origine.
Les chiffres donnent la mesure du chantier. Plus d’un million de chaînes ont utilisé chaque jour les outils de création IA de YouTube en décembre 2025. Shorts a dépassé les 200 milliards de vues quotidiennes. Le risque est donc que la plateforme soit saturée de contenus générés à la chaîne. Pour éviter ce scénario, YouTube a investi massivement dans l’infrastructure de calcul et dans la supervision humaine des flux.
Il y a aussi un volet économique. YouTube a versé depuis 2021 plus de 100 milliards de dollars à ses créateurs et partenaires. Le maintien de la confiance des annonceurs dépend directement de la qualité perçue des vidéos. Un environnement pollué par le « slop » ferait chuter la valeur publicitaire et donc les revenus.
Sur le plan réglementaire, la société soutient le projet de loi américain NO FAKES ACT qui vise à protéger le droit à l’image et la voix des artistes. Mohan a précisé que YouTube adaptera son système Content ID pour permettre aux créateurs de contrôler l’usage de leur apparence dans les productions générées.
Il est probable que la campagne anti-slop s’étende à l’ensemble de l’écosystème Google. Les ingénieurs de Mountain View testent déjà des filtres similaires sur Search et sur les flux Discover. L’idée est de restaurer la confiance dans les contenus authentiques.
En tout cas, la bataille du « AI slop » s’annonce comme le grand ménage de 2026 sur YouTube.

