OpenAI et Google cherchent à affaiblir la protection du copyright pour entraîner leurs modèles d’intelligence artificielle… Une démarche qui suscite une forte opposition dans l’industrie du divertissement.
Le 13 mars, OpenAI et Google ont adressé des lettres à l’Office de la science et de la technologie de la Maison-Blanche, plaidant pour une réglementation moins stricte en matière de droit d’auteur. Selon eux, un cadre trop restrictif risquerait de freiner l’innovation américaine face à la Chine. OpenAI a exhorté le gouvernement à protéger « la liberté des Américains d’apprendre grâce à l’IA » en permettant aux modèles d’être formés sur des œuvres protégées par le copyright, sans que cela soit considéré comme une violation.
Cette tentative de contournement légal a immédiatement suscité des réactions… Le 15 mars, plus de 400 figures influentes du cinéma, de la télévision et de la musique, dont Ron Howard, Cate Blanchett, Paul McCartney ou encore Taika Waititi, ont signé une lettre dénonçant ce qu’ils considèrent comme une tentative d’exploitation massive des industries culturelles américaines. Ils accusent les géants technologiques de vouloir obtenir un « exemption gouvernementale spéciale » leur permettant d’utiliser librement le travail des créateurs sans compensation équitable.
Les signataires rappellent que l’industrie du divertissement représente 2,3 millions d’emplois et constitue un pilier économique majeur. Ils rejettent catégoriquement l’argument selon lequel l’accès aux œuvres protégées relèverait d’un quelconque intérêt national : « L’accès au catalogue créatif américain n’est pas une question de sécurité nationale. »
En réponse aux critiques, certains acteurs du secteur commencent à négocier directement avec des entreprises d’IA. Le studio Lionsgate a récemment conclu un accord avec Runway pour autoriser l’entraînement sur ses contenu. Un cas isolé qui ne masque pas les préoccupations croissantes sur la fragilisation du copyright face aux ambitions démesurées des entreprises d’intelligence artificielle.

