Un code des bonnes pratiques pour l’IA ? – Un entretien avec Nicole Pfister Fetz

Actualités Un code des bonnes pratiques pour l’IA ? – Un entretien avec Nicole Pfister Fetz, Secrétaire générale de « European Writers’ Council (EWC)». Nicole Pfister Fetz a été durant seize années Secrétaire générale de A*dS, l’association des autrices, auteurs, traductrices et traducteurs littéraires suisses. Depuis le 1er juillet 2023, elle occupe le poste de Secrétaire générale de la Fédération des associations européennes d’écrivains (EWC). Bulletin des Auteurs – Pouvez-vous nous expliquer ce qu’est le « Code of Practice » ? Nicole Pfister Fetz – L’article 56 de l’« EU Artificial Inteligence Act » (EU AI Act), la loi européenne sur l’IA, prévoit ce « Code of Practice », ou code des bonnes pratiques, qui précise la manière dont les fournisseurs de l’IA, c’est-à-dire les entreprises qui développent les modèles d’IA à usage général, ou IA générative, par exemple « ChatGPT », « Gemini », etc., qui se nourrissent du matériau des œuvres publiées et ne pourraient exister sans ce matériau, peuvent se conformer à leurs obligations au regard de la loi sur l’IA. Il existe aussi des fournisseurs de modèles d’IA qui présentent des risques systémiques, dans les domaines de la sécurité, surveillance, médecine, climat, etc. Ce « Code of Practice » est proposé à la signature des seuls fournisseurs. Les fournisseurs ne sont pas obligés de signer ce code. Ce n’est qu’une recommandation. Le signer est un moyen pour les fournisseurs de montrer la conformité des modèles qu’ils offrent à la loi sur l’IA. Les obligations auxquelles s’engagent alors les fournisseurs concernent les droits d’auteur, la transparence, la catégorisation entre modèles d’IA générative et modèles à risques systémiques, et la réduction de ces risques, enfin la bonne gouvernance des bases de données. Sur ces quatre thèmes se sont constitués quatre groupes de travail, qui participent à l’élaboration du « Code of Practice ». Ce Code des bonnes pratiques n’est qu’un chapitre des différentes mesures à prendre pour que la loi sur l’IA entre en fonction. En août 2024 le Bureau de l’IA, qui est lié à la Commission européenne, a ouvert le processus pour construire le « Code of Practice » à qui souhaitait y participer. Environ mille organisations et personnes individuelles ont répondu. Les personnes individuelles ont déclaré être des experts et des académiciens qui ont une compétence particulière dans le domaine de l’IA. Sur ces mille organisations et experts, seulement 6 % sont des organisations qui représentent les auteurs, leurs ayants-droit, les sociétés de gestion collective, les éditeurs, les producteurs, etc. Seulement 5 % des mille sont des organisations qui viennent de la société civile, qui défendent les droits humains. 13 % représentent les fournisseurs de l’IA ou autres entreprises technologiques. 30 à 40 % sont des experts indépendants. 30 % enfin sont des académiciens. Un problème est que nous n’en savons pas plus sur les participants. Plusieurs organisations ont fermement demandé que soit opérée une transparence sur la personnalité des participants. La liste des organisations a alors été publiée. Mais jusqu’à aujourd’hui on ne sait absolument pas qui sont les 60 % des personnes individuelles. Pendant le processus nous avons appris que les fournisseurs et experts individuels présents dans ces groupes de travail ne viennent pas seulement d’Europe. Plusieurs viennent des États-Unis. Il y a aussi des experts individuels et « indépendants » qui sont directement liés avec les fournisseurs de l’IA. B.A. – Comment sont gérés tous les avis émis par ces mille participants ? N.P.- F. – Au début du processus tous les participants devaient s’inscrire pour chacun des quatre groupes de travail et pour les séances plénières. La personne en titre, d’une organisation ou individuelle, ne peut être remplacée par une autre en cas d’empêchement. Notre organisation EWC dispose de trois personnes qui participent à ces quatre groupes de travail. De plus, il y a un groupe de travail qui est ouvert exclusivement aux grands fournisseurs de l’IA, qui ont ces séances supplémentaires. L’EWC et autres organisations ont demandé un calendrier prévisionnel des dates de réunion des groupes de travail. Depuis, on a reçu un calendrier avec les semaines mentionnées avec des délais pour envoyer les réactions et des séances des groupes de travail, mais pas d’informations en détail, ni les dates précises. Au mieux juste une ou deux semaines en amont, on reçoit une invitation à participer à une réunion de son groupe de travail, sur la base du document qui nous a été communiqué. Il faut être très flexible pour pouvoir se libérer. On peut alors soumettre sur une plateforme numérique, dans un certain délai, des demandes, sur la base de ce document. On peut également soumettre une demande de prise de parole durant la séance, qui ne peut durer plus de deux minutes. Sur la plateforme, on ne voit pas qui va parler lors de la séance et on peut même soumettre une question de manière anonyme. Avant la séance tous les participants d’un groupe de travail peuvent voter des questions avec pouce vers le haut. Seules les dix questions ayant obtenu le plus de voix recevront une réponse lors de la séance. Mais comme nous ne savons pas qui participera à la réunion, il n’est pas possible de se concerter ou de se coordonner avant. Avant la toute première séance, nous avons dû poser les questions et demander une prise de parole avant même d’avoir eu l’occasion de lire le document dont il allait être débattu. Les séances suivantes, souvent cela n’a guère été mieux. On peut faire part d’une réaction, chaque fois sur la base d’un projet du « Code of Practice » à la suite des réunions de groupe de travail, mais dans un espace de deux à trois semaines au maximum. C’est un travail immense, très technique. Les petites organisations n’ont pas les moyens d’employer une personne à cette tâche. Par contre, parmi les personnes individuelles, il y a aussi des avocats liés aux grandes entreprises de l’IA, ou des représentants des universités qui sont presque uniquement engagés par de grandes entreprises américaines, ceux-là ont des cabinets derrière eux qui préparent leurs interventions ou leurs réactions. Ce processus n’est pas très démocratique. Il crée un déséquilibre immense en faveur de l’industrie de l’IA. Face