Actualités
Un code des bonnes pratiques pour l’IA ? – Un entretien avec Nicole Pfister Fetz, Secrétaire générale de « European Writers’ Council (EWC)».
Bulletin des Auteurs – Pouvez-vous nous expliquer ce qu’est le « Code of Practice » ?
Nicole Pfister Fetz – L’article 56 de l’« EU Artificial Inteligence Act » (EU AI Act), la loi européenne sur l’IA, prévoit ce « Code of Practice », ou code des bonnes pratiques, qui précise la manière dont les fournisseurs de l’IA, c’est-à-dire les entreprises qui développent les modèles d’IA à usage général, ou IA générative, par exemple « ChatGPT », « Gemini », etc., qui se nourrissent du matériau des œuvres publiées et ne pourraient exister sans ce matériau, peuvent se conformer à leurs obligations au regard de la loi sur l’IA.
Il existe aussi des fournisseurs de modèles d’IA qui présentent des risques systémiques, dans les domaines de la sécurité, surveillance, médecine, climat, etc.
Ce « Code of Practice » est proposé à la signature des seuls fournisseurs. Les fournisseurs ne sont pas obligés de signer ce code. Ce n’est qu’une recommandation. Le signer est un moyen pour les fournisseurs de montrer la conformité des modèles qu’ils offrent à la loi sur l’IA. Les obligations auxquelles s’engagent alors les fournisseurs concernent les droits d’auteur, la transparence, la catégorisation entre modèles d’IA générative et modèles à risques systémiques, et la réduction de ces risques, enfin la bonne gouvernance des bases de données. Sur ces quatre thèmes se sont constitués quatre groupes de travail, qui participent à l’élaboration du « Code of Practice ». Ce Code des bonnes pratiques n’est qu’un chapitre des différentes mesures à prendre pour que la loi sur l’IA entre en fonction.
En août 2024 le Bureau de l’IA, qui est lié à la Commission européenne, a ouvert le processus pour construire le « Code of Practice » à qui souhaitait y participer. Environ mille organisations et personnes individuelles ont répondu. Les personnes individuelles ont déclaré être des experts et des académiciens qui ont une compétence particulière dans le domaine de l’IA.
Sur ces mille organisations et experts, seulement 6 % sont des organisations qui représentent les auteurs, leurs ayants-droit, les sociétés de gestion collective, les éditeurs, les producteurs, etc. Seulement 5 % des mille sont des organisations qui viennent de la société civile, qui défendent les droits humains. 13 % représentent les fournisseurs de l’IA ou autres entreprises technologiques. 30 à 40 % sont des experts indépendants. 30 % enfin sont des académiciens.
Un problème est que nous n’en savons pas plus sur les participants. Plusieurs organisations ont fermement demandé que soit opérée une transparence sur la personnalité des participants. La liste des organisations a alors été publiée.
Mais jusqu’à aujourd’hui on ne sait absolument pas qui sont les 60 % des personnes individuelles. Pendant le processus nous avons appris que les fournisseurs et experts individuels présents dans ces groupes de travail ne viennent pas seulement d’Europe. Plusieurs viennent des États-Unis. Il y a aussi des experts individuels et « indépendants » qui sont directement liés avec les fournisseurs de l’IA.
B.A. – Comment sont gérés tous les avis émis par ces mille participants ?
N.P.- F. – Au début du processus tous les participants devaient s’inscrire pour chacun des quatre groupes de travail et pour les séances plénières. La personne en titre, d’une organisation ou individuelle, ne peut être remplacée par une autre en cas d’empêchement. Notre organisation EWC dispose de trois personnes qui participent à ces quatre groupes de travail. De plus, il y a un groupe de travail qui est ouvert exclusivement aux grands fournisseurs de l’IA, qui ont ces séances supplémentaires.
L’EWC et autres organisations ont demandé un calendrier prévisionnel des dates de réunion des groupes de travail. Depuis, on a reçu un calendrier avec les semaines mentionnées avec des délais pour envoyer les réactions et des séances des groupes de travail, mais pas d’informations en détail, ni les dates précises.
Au mieux juste une ou deux semaines en amont, on reçoit une invitation à participer à une réunion de son groupe de travail, sur la base du document qui nous a été communiqué. Il faut être très flexible pour pouvoir se libérer.
On peut alors soumettre sur une plateforme numérique, dans un certain délai, des demandes, sur la base de ce document. On peut également soumettre une demande de prise de parole durant la séance, qui ne peut durer plus de deux minutes. Sur la plateforme, on ne voit pas qui va parler lors de la séance et on peut même soumettre une question de manière anonyme. Avant la séance tous les participants d’un groupe de travail peuvent voter des questions avec pouce vers le haut. Seules les dix questions ayant obtenu le plus de voix recevront une réponse lors de la séance. Mais comme nous ne savons pas qui participera à la réunion, il n’est pas possible de se concerter ou de se coordonner avant.
Avant la toute première séance, nous avons dû poser les questions et demander une prise de parole avant même d’avoir eu l’occasion de lire le document dont il allait être débattu. Les séances suivantes, souvent cela n’a guère été mieux.
On peut faire part d’une réaction, chaque fois sur la base d’un projet du « Code of Practice » à la suite des réunions de groupe de travail, mais dans un espace de deux à trois semaines au maximum. C’est un travail immense, très technique. Les petites organisations n’ont pas les moyens d’employer une personne à cette tâche. Par contre, parmi les personnes individuelles, il y a aussi des avocats liés aux grandes entreprises de l’IA, ou des représentants des universités qui sont presque uniquement engagés par de grandes entreprises américaines, ceux-là ont des cabinets derrière eux qui préparent leurs interventions ou leurs réactions.
Ce processus n’est pas très démocratique. Il crée un déséquilibre immense en faveur de l’industrie de l’IA. Face aux critiques de nombreuses organisations, une réunion a été programmée pour les organisations de la société civile, mais elle se tiendra seulement à la fin du processus.
B.A. – D’autres problèmes se posent-ils ?
N.P.- F. – Il y a deux problèmes, à deux niveaux : le problème opérationnel, administratif, dont nous venons de parler, et la question du contenu.
Le contenu penche de plus en plus en faveur de l’industrie de l’IA au lieu de respecter la législation de l’UE. Malgré nos prises de position fortes, les dispositions du « Code of Practice » s’affaiblissent à chaque rédaction, la politique du processus ignore nos principales préoccupations et recommandations, nous assistons à une édulcoration de la langue, les fournisseurs sont « encouragés à » communiquer sur le contenu du modèle IA qu’ils proposent, et non plus « s’engagent à », les fournisseurs ne sont plus tenus à un minimum de transparence sous prétexte du secret s’entreprise, alors que le « Code of Practice » établissait l’obligation d’une certaine transparence. Dans le projet du « Code of Practice », les recommandations se sont substituées aux obligations.
De plus, pour citer d’autres exemples de contenu problématique, le projet de « Code of Practice » est désormais très éloigné de la réalité lorsqu’il s’agit de questions relatives à du matériel provenant de sites pirates. Les fournisseurs d’IA ne sont que poliment invités à faire des « efforts raisonnables » pour ne pas utiliser d’œuvres piratées. Nous nous demandons d’où vient cette réticence et pourquoi seuls les portails de piratage à vocation « commerciale » sont mentionnés – d’autant plus que la plupart d’entre eux, en particulier dans le domaine des livres, se réclament d’intérêts « non commerciaux ».
Le projet affaiblit aussi les obligations découlant de la loi sur l’IA et de la législation européenne sur le droit d’auteur, y compris, mais sans s’y limiter, les mesures liées au respect des réserves de droits en privilégiant des outils « opt-out » (robots.txt) par rapport aux autres opt-outs, malgré les exemples concrets répétés et les objections motivées des associations d’auteurs et des experts, et ne demande que prudemment aux fournisseurs de faire « les meilleurs efforts » pour identifier les autres « opt-outs ». Comment les titulaires de droits sont-ils censés pouvoir déclarer leurs œuvres avec des « opt-outs » lisibles ?
Ou bien le projet du « Code of Practice » favorise des privilèges non fondés pour les petites et moyennes entreprises et les fournisseurs/ opérateurs de l’IA. Nous comprenons la nécessité de les soutenir – après tout, l’économie culturelle repose sur les épaules d’individus, d’auteurs uniques, et donc de travailleurs indépendants au sens de micro-entreprises. Toutefois, en tant qu’entrepreneurs individuels, nous sommes tenus de respecter les mêmes normes juridiques de base que tous les autres acteurs de la société civile – et il devrait en être de même pour tous les fournisseurs de l’IA.
Enfin la loi sur l’IA demande que soit produit un « résumé suffisamment détaillé » du contenu du modèle IA pour pouvoir vérifier si nos œuvres sont utilisées.
Un formulaire, à la charge du fournisseur, aurait dû normalement répertorier, par titre, les œuvres qui nourrissent tel ou tel modèle de l’IA. Mais ce formulaire est concocté par le Bureau de l’IA, et un répertoire obligatoire des titres n’y est pas prévu – dans la mesure où nous en avons connaissance. On ne pourra alors pas contrôler si nos œuvres sont utilisées pour l’entraînement de l’IA. La responsabilité de protéger chaque œuvre est ainsi renvoyée dans notre camp. Or nous n’avons pas les moyens de défendre l’utilisation de nos œuvres, surtout si nous ne savons pas quelles œuvres ont été utilisées.
B.A. – Nous sommes à une troisième version du projet du « Code of Practice ». Elle ne comporte pas vraiment d’améliorations ?
N.P.- F. – Non, c’est encore pire, si possible. J’ai déjà mentionné des aspects différents avant en parlant du contenu. Nous ne pourrons pas la soutenir, car nos réactions et commentaires n’ont jamais été pris en compte. Nos préoccupations et nos recommandations ont été totalement ignorées. Les présentations des résultats du dernier cycle des quatre groupes de travail lors de la dernière réunion plénière nous l’ont malheureusement montré encore plus clairement.
Dans nos réactions, nous avons à chaque fois décrit en détail où nous voyions les problèmes. Et nous savons que nous n’étions pas les seuls à émettre de nombreuses critiques.
Lors de la présentation du deuxième projet du « Code of Practice », 15 organisations d’auteurs et d’interprètes ont manifesté leur inquiétude par une lettre ouverte. Auparavant, l’EWC, en collaboration avec le CEATL et l’EFJ, a envoyé plusieurs lettres au AI Office ainsi qu’à différentes parties du monde politique et de l’administration pour les informer du processus et du contenu problématiques – et ce, publiquement depuis le troisième projet du « Code of Practice » qui n’est plus acceptable pour nous. Après la publication de ce dernier projet, nous avons signé une autre déclaration commune avec 40 autres organisations du secteur culturel.
Nous voulions avoir une trace de notre protestation. Nous avons communiqué sur les problèmes que nous voyions, pour qu’à la fin du processus nous puissions battre en brèche une version officielle qui présenterait ce code des bonnes pratiques comme le résultat d’un consensus auquel auraient adhéré nos organisations. Depuis le début nous exprimons nos réserves quant au processus, nous expliquons pourquoi il ne fonctionne pas, nous écrivons au Bureau de l’IA, au comité des représentants des États, aux commissions du Parlement européen qui surveillent l’application de la loi sur l’IA, etc. Nous n’avons jamais publié nos lettres, jusqu’à la dernière, que nous avons décidé de médiatiser.
Mais de grandes entreprises américaines ont déjà signalé qu’en définitive elles ne veulent pas signer le « Code of Practice ». Alors on se demande vraiment ce que nous faisons ici, avec ce grand travail inutile.
Que les fournisseurs de l’IA signent un « Code of Practice » qui désavantage les auteurs – notamment sans les œuvres desquels il n’y aurait pas de « Large Language Model » et autres IA génératives –, et dont l’application n’est pas obligatoire, ne serait pas mieux que s’ils ne le signaient pas. Pour nous il serait clairement mieux de n’avoir pas de « Code of Practice » du tout plutôt que d’en avoir un à notre désavantage.
Des exceptions au droit d’auteur, au profit de l’IA, sont aussi programmées. Une exception au droit d’auteur, pédagogique ou au bénéfice des personnes handicapées comme il se pratique en France, est toujours d’utilité publique. Une exception au droit d’auteur, qui serait autorisée pour entraîner l’IA, ne serait aucunement d’utilité publique, mais au service d’intérêts privés.
B.A. – Que peut-on espérer de l’avenir ?
N.P.- F. – Je n’ai pas grand espoir. Médiatiser n’est pas simple, car le sujet est complexe à expliquer au public. Peu de personnes ont les connaissances nécessaires pour comprendre l’enjeu de l’IA. Notre tâche est aussi d’informer nos membres, leur demander de contacter leur gouvernement, afin qu’il agisse.
On essaye toujours, c’est notre mission que de nous y employer, nous nous engageons avec toutes nos forces à défendre les droits des auteurs. La culture, le secteur du livre inclus, représentent la troisième économie en Europe. La base de cette économie est la création, l’innovation. La création, c’est l’innovation pure. Si nous critiquons le système de l’IA, on reçoit souvent la réponse : « Il ne faut pas aller contre l’innovation et la technologie en Europe. » Quelle innovation peut-elle se construire sur la base du vol des créations déjà existantes ? Les grandes entreprises technologiques sont toutes extra-européennes. Cette économie technologique nous vole nos créations, nos œuvres pour les systèmes IA génératives sans autorisation et sans nous rémunérer. Elle soutient un processus de destruction de l’économie culturelle européenne pour prendre sa part de marché. Des centaines de milliers d’emplois dans le secteur de la culture en Europe sont menacés, notamment pas « seulement » les auteurs, les artistes, mais aussi des traducteurs, des photographes, des illustrateurs, des graphistes, etc. On nous dit toujours que la culture est primordiale pour la sauvegarde de la démocratie. Alors nous devons la défendre !