
1 août 2025
Réguler l’IA et protéger la création humaine : retour sur la rencontre européenne du 2 juillet
Alors que l’intelligence artificielle génère de profonds bouleversements dans le secteur du livre, BELA, la Scam et le PILEn ont réuni à Bruxelles une série d’acteurs et actrices européen·nes – auteurs et autrices, traducteurs et traductrices, éditeurs et éditrices, représentant·es d’organisations et d’institutions culturelles – pour un échange structuré autour d’un triple enjeu : poser des principes partagés, présenter des outils concrets et amorcer des actions.
Compte-rendu par Marie d’Otreppe, chargée de projet IA+ au PILEn
L’intelligence artificielle n’est pas une abstraction. Pour les professionnel·les du livre, elle représente déjà une réalité tangible et concrète : expérimentations artistiques et éditoriales, nouveaux outils de gestion, traductions automatisées, œuvres exploitées sans autorisation par les entreprises qui développent de l’IA, perte de revenus, incertitude juridique, études et débats, etc. Loin des discours prospectifs, la rencontre du 2 juillet s’est attachée à ancrer les discussions dans le vécu du secteur.
Principes et postures : entre cadre réglementaire et crise de confiance
Dans une première intervention, María Iglesias et Arnaud Pasquali, représentant la DG de l’éducation, de la jeunesse, du sport et de la culture (DG EAC) de la Commission européenne, ont abordé les opportunités ainsi que les limites posées par l’intelligence artificielle pour les secteurs culturels et créatifs (SCC). Outre une mention des résultats du dernier Eurobaromètre [1] de mai 2025, il a été rappelé que l’Union européenne a mis en place un cadre juridique élaboré dans ce domaine.
La Directive sur le droit d’auteur (2009) ainsi que la législation sur l’intelligence artificielle (AI Act, 2024) offrent aux titulaires de droits des outils pour contrôler l’exploitation de leurs œuvres et conclure des accords de licence. Ces accords leur permettent d’imposer des obligations aux fournisseurs d’IA, afin de garantir la transparence dans l’usage de leurs données et la protection effective de leurs droits d’auteur. Il a également été rappelé que la Directive sur le droit d’auteur et les droits voisins dans le marché unique numérique (2019) devrait faire l’objet d’une révision, qui sera guidée par les résultats d’une évaluation des règles existantes, notamment s’agissant de l’exception relative à l’exploration de textes et de données (TDM). Cette évaluation devrait également permettre d’analyser les bénéfices de la directive, ses difficultés d’application, ainsi que l’éventuel besoin de développer de nouvelles mesures pour encourager la conclusion de contrats de licence adaptés à l’intelligence artificielle. Enfin, a été rappelé que le soutien au développement des compétences, à l’accès aux ressources pour les SCC, ainsi que la préservation de la diversité culturelle et linguistique en Europe, demeurent des priorités majeures pour la Commission européenne.
En contrepoint, plusieurs voix sont venues nuancer cette lecture proposée par la Commission européenne, et mettre en garde quant à une vision trop naïve de l’IA. Parmi elles, celle de Patrice Locmant (SGDL) qui a souligné les limites du droit d’opposition (opt-out), aujourd’hui inopérant selon lui pour les auteurs et les autrices, faute de mécanismes permettant de notifier leurs refus aux développeurs de modèles. Il a également pointé l’écart croissant entre les intentions des parlementaires européens et l’interprétation qui en est faite dans les textes et le code de conduite négocié avec les entreprises technologiques. La lecture de l’enquête de l’Observatoire ADAGP-SGDL sur l’impact des IA sur l’activité des artistes et auteurs montre une inquiétude largement partagée : si 60% ont déjà testé des outils IA, autant en perçoivent une menace directe sur leur activité.
En parallèle, les témoignages issus des Rencontres européennes de la traduction de Strasbourg (octobre 2024) organisées par le CEATL alertent sur une perte de qualité, d’emploi et de sens. L’humain, ont rappelé Francesca Novajra et Andreas Jandl, n’est pas un filtre interchangeable. C’est lui qui garantit la précision, la musicalité, la diversité des textes et des langues comme responsabilité culturelle, comme écrit dans la Déclaration sur l’intelligence artificielle : « Tout le monde compte, toutes les langues comptent, tous les livres comptent. »
Maïa Bensimon, vice-présidente de l’European Writer’s Council (EWC) et par ailleurs déléguée générale du SNAC, a relayé les mots forts des autrices et auteurs pour décrire leur détresse face à l’IA et dénoncer des accords de licence imposés sans consentement réel : « ‘C’est comme nous forcer à épouser notre violeur’, selon les dires d’un auteur rapportés par une enquête allemande menée et répercutée auprès de l’EWC par Nina George. » Selon elle, l’AI Act, dans sa forme actuelle, ne garantit pas la protection des œuvres ni le respect des conventions fondatrices comme celle de Berne.
Anne Bergman-Tahon (Fédération des éditeurs européens) a pointé la responsabilité des institutions face aux activités des développeurs IA qui utilisent des datasets nourris de contenus piratés sans jamais révéler leurs sources. Pour elle, tant que les inputs des IA resteront opaques, aucune logique de licence ne pourra fonctionner. Elle appelle la Commission à cesser de vouloir séduire les acteurs technologiques et à défendre enfin les détenteurs et détentrices légitimes des droits.
Ces retours confortent, selon certain·es intervenant.es, sans préjudice des nécessaires améliorations de la régulation, la nécessité de déployer, au niveau européen, une approche fondée sur le triptyque A.R.T. : Autorisation, Rémunération, Transparence. Défendue par l’EWC et ses membres, cette position de principe appelle à recentrer le débat sur les droits fondamentaux des créateurs et créatrices, tout en laissant place à l’innovation dès lors qu’elle est encadrée.
Des outils pour mutualiser les ressources
Pour traduire ces principes en pratiques concrètes, plusieurs outils ont été présentés ou rappelés. Le premier est la Charte pour une utilisation responsable de l’intelligence artificielle dans le secteur des écritures et du livre, portée par le PILEn en partenariat avec la Scam. Cet ensemble de six principes, adoptés à l’unanimité des fédérations professionnelles reconnues du secteur en FWB, pose les bases d’une fabrication et d’un usage des outils et services d’IA respectueux de la création humaine et du cadre légal déjà pertinent : responsabilité individuelle et collective, transparence, authenticité, respect des lois, recherche de productivité et partage des gains, apprentissage collectif.
Autre outil structurant, la boîte à outils IA éthique publiée par l’EWC. Elle comprend un glossaire accessible, un guide de sensibilisation, ainsi qu’un ensemble de recommandations pratiques et juridiques adressées aux auteur·ices et aux fédérations. Cette ressource vise à combler les écarts d’information entre les créateur·ices et les acteurs technologiques, souvent détenteurs exclusifs de l’expertise technique.
Du côté technique justement, des initiatives comme l’ISCC (International Standard Content Code) permettent d’identifier et de tracer les œuvres à l’échelle numérique en y associant un identifiant unique. Ce type de solution devrait permettre aux auteurs et aux autrices de marquer leurs œuvres de manière à limiter leur utilisation non autorisée par les IA.[2]
Ces outils, encore récents, partagent la même ambition : éviter l’isolement des créatrices et créateurs et renforcer leur pouvoir d’action, et constituer des leviers concrets pour sortir d’une posture défensive.
Actions : passer du constat à la mobilisation
La rencontre du 2 juillet à la MEDAA (Bruxelles) avait pour objectif de s’inscrire dans une dynamique plus large de structuration. Il s’agit à présent de promouvoir les ressources, l’expertise et l’influence de la DG EAC sur les arbitrages liés à l’IA et dans l’élaboration de politiques publiques autonomes, affranchie de l’approche technocentrée de la DG Connect.
Certaines organisations n’attendent plus. La SGDL, avec le SNE et le SNAC, a engagé des actions en justice contre Meta, accusé d’avoir utilisé des œuvres – piratées en masse – sans autorisation pour entraîner ses modèles. D’autres procédures visent à bloquer des sites de diffusion illégale de livres, notamment en agissant auprès des prestataires de paiement ou des moteurs de recherche[3]. Ce volet contentieux s’accompagne d’actions de sensibilisation afin de rendre le débat plus lisible auprès du public.
En clôture de la rencontre, Frédéric Young (Scam Belgique) a rappelé que le secteur devait désormais se structurer autour d’une logique de solidarité contractuelle. Il a insisté sur la nécessité de politiques contractuelles plus solides, d’une montée en compétences des professionnel·les, et d’un engagement interprofessionnel fort : « Nous allons mener des actions judiciaires complémentaires dans les mois à venir », a-t-il affirmé, appelant à une mobilisation collective de long terme.
Ce dernier appel trouve écho dans l’ensemble des interventions : les multiples outils et services d’IA ne sont pas intrinsèquement nuisibles, mais ils sont déployés dans des conditions qui rendent l’écosystème du livre (papier comme numérique) vulnérable, menacé. Une régulation effective passera par la coordination de l’ensemble de la filière, le soutien des institutions, et des arbitrages politiques assumés.[4]
Le rôle du public, lui aussi, pourrait devenir décisif, à condition qu’on lui donne les clés de lecture pour comprendre ce qu’il lit, et comment cela a été produit. Car si la régulation prend du temps, la construction d’un nouvel imaginaire, lisible et mobilisateur peut commencer dès maintenant.
Conclusion : affirmer la création comme bien commun
Loin d’un rejet binaire de la technologie, cette rencontre européenne a permis d’esquisser un positionnement nuancé mais déterminé, celui d’un secteur qui ne s’oppose pas à l’innovation technologique, au contraire, mais refuse que son développement se fasse au détriment des droits fondamentaux, de la diversité culturelle et des conditions de travail des créateurs et créatrices. Dans un moment de basculement, il est urgent de rappeler que la création humaine n’est pas une donnée brute : elle est un bien commun, un patrimoine vivant qui mérite d’être défendu comme tel.
[1] Mentionne, entre autres que : 73 % des Européen·nes craignent que la montée de l’IA générative n’ait une incidence sur l’emploi ou les revenus des artistes ; la culture, les valeurs et l’histoire sont les trois principaux facteurs perçus comme favorisant le plus fortement le sentiment d’appartenance à une communauté parmi les citoyens et citoyennes de l’UE ; 49 % des Européen·nes se sont engagé·es dans des activités artistiques au cours des 12 derniers mois, le public soutient le renforcement du rôle de l’UE dans la culture, etc.
[2] Le protocole TDMRep du W3C (mai 2024), développé avec le concours de la FEE-FEP, permet aux auteurs et autrices de signaler, via des métadonnées, qu’ils s’opposent à l’usage de leurs œuvres pour la fouille de textes, notamment par des IA. Voir https://www.w3.org/community/reports/tdmrep/CG-FINAL-tdmrep-20240510/
[3] C’est le cas en Belgique où, en extrême urgence, le juge a donné raison aux auteur·ices et éditeur·ices. Voir la décision intervenue après la rencontre du 2 juillet : https://www.scam.be/actualites-ressources/action-contre-sites-pirates/
[4] Remarque ultérieure à l’événement : ce mouvement de structuration s’observe ailleurs en Europe. Le Danemark s’apprête à élargir sa législation sur le droit d’auteur en accordant aux individus des droits sur leur apparence, leur voix et leurs traits faciaux, afin de lutter contre les deepfakes. Cette initiative vise à permettre aux citoyen·nes de faire retirer des contenus générés par IA non autorisés et à responsabiliser les plateformes.