VERS UN ENCADREMENT JURIDIQUE DE L’INTELLIGENCE ARTIFICIELLE

- Petit à petit, l’encadrement juridique de l’IA prend forme au niveau international. Alors que tous les yeux étaient tournés vers l’Union européenne, où le projet de règlement sur l’IA est en passe d’être adopté, d’autres initiatives ont récemment occupé le devant de la scène, que ce soit aux États-Unis, en Chine ou encore dans les pays du G7 ou de l’OCDE. La prochaine édition du sommet sur la sécurité de l’IA, qui vient de se clôturer au Royaume-Uni, sera organisée en France en 2024.
- Mais qu’en pense la principale intéressée ? Interrogée sur la nécessité d’encadrer juridiquement l’IA, l’IA ChatGPT de la société OpenAI nous a répondu qu’il s’agit d’une « question complexe » mais qu’ « il semble y avoir un consensus croissant sur la nécessité d’une certaine forme de régulation de l’IA pour garantir son utilisation responsable et éthique ».
- Aujourd’hui omniprésente, l’IA impacte par sa transversalité tous les secteurs. Quelles conséquences pour le monde juridique ou le monde médical ? Quelles sont les mesures législatives déjà en place ou envisagées ? Existe-il des organes spécifiquement en charge de surveiller l’IA ? Quels sont les risques de l’IA générative au regard du droit de la propriété intellectuelle et de la protection des données ? Les tribunaux ont-ils déjà eu à se prononcer ? Comment réaliser une analyse d’impact relative à l’IA ? Les membres du réseau Lexing répondent à toutes ces questions.
Les membres du réseau Lexing® dressent un tableau de la situation actuelle à travers le monde. Les pays suivants ont contribué à ce numéro : Chine, Espagne, Estonie, Etats-Unis, Grèce, Hong Kong, Hongrie, Inde, Royaume-Uni.
FREDERIC FORSTER
Vice-président du réseau Lexing® et Directeur du pôle Industries et services informatiques, télécoms et bancaires du cabinet Lexing Alain Bensoussan-Avocats
- Le 15 août 2023 sont entrées en vigueur en Chine des « mesures provisoires pour l’administration des services d’IA générative ». Ces mesures sont les dernières en date d’une série de réglementations chinoises encadrant divers aspects l’IA, et notamment les dispositions relatives à l’administration des services d’information sur Internet à synthèse profonde (« dispositions DSS ») applicables depuis le 10 janvier 2023, et les dispositions relatives à l’administration des recommandations générées par des algorithmes pour les services d’information sur Internet (« dispositions AGR »), effectives depuis le 1er mars 2022.
- L’expression « technologie d’IA générative » y est définie comme « les modèles et les technologies associées ayant la capacité de générer du texte, des images, du son, de la vidéo et d’autres contenus ». Le code n’est donc pas couvert par cette définition, ce qui est cohérent avec l’article 2 desdites mesures, qui exclut de son champ d’application la recherche et le développement sur les technologies d’IA générative. Ce texte précise également que l’application de l’IA générative dans les domaines de la presse et de l’édition, de la production cinématographique et télévisuelle et de la création littéraire et artistique sera régie par d’autres règlements spécifiques, qui seront adoptés par l’État chinois.
- Aux termes des mesures relatives à l’IA générative, les autorités sont habilitées à prendre toutes les mesures techniques adéquates dans le cas où la fourniture de services basés sur l’IA générative disponibles en Chine mais proposés à partir d’un autre pays ne serait pas conforme à la réglementation chinoise applicable.
- Le texte impose plusieurs obligations aux fournisseurs des services basés sur l’IA générative. Ainsi, un fournisseur des services basés sur l’IA générative est tenu de prendre des mesures appropriées au cas où il aurait connaissance de contenu illégal provenant de ses utilisateurs ou d’activités illégales commises ceux-ci lors de l’utilisation de ses services. Il lui incombe de prendre des mesures rapides pour stopper la transmission de contenus illégaux, les supprimer et signaler l’incident aux autorités compétentes. Lorsqu’il est constaté que des utilisateurs se livrent à des activités illégales, le fournisseur de services, une fois alerté, prend des mesures, allant de l’émission d’un avertissement à l’utilisateur concerné au signalement de l’incident aux autorités compétentes, en passant par la restriction, la suspension ou la cessation du service, et la tenue de registres pertinents.
- S’agissant du traitement des données utilisées pour l’entraînement de l’IA, les mesures relatives à l’IA générative soulignent que ces données et les modèles sous-jacents utilisés doivent reposer sur des sources légitimes et que ce traitement doit, en tout état de cause, respecter les droits de propriété intellectuelle des tiers. En outre, dans le cas où des informations à caractère personnel seraient concernées, il est impératif d’obtenir, le cas échéant, le consentement de la personne concernée.
- Enfin, le prestataire de services doit, par ailleurs, étiqueter les images et les vidéos générées, conformément aux dispositions DSS. Dans le cas où les services basés sur l’IA générative comporteraient des « attributs d’opinion publique » ou des « capacités de mobilisation sociale », une évaluation de la sécurité et un rapport sont également requis, conformément aux dispositions AGR.
Jun Yang
- En Espagne, le Conseil des ministres a approuvé un décret royal approuvant le statut de l’agence de contrôle espagnole de l’intelligence artificielle (AESIA), fruit du travail conjoint du ministère des Finances et de la fonction publique et du ministère des Affaires économiques et de la transformation numérique.
- Les progrès des technologies sont incontestables partout dans le monde, y compris en Espagne, où le gouvernement a fait de la transformation numérique une de ses priorités, comme en témoigne l’« Agenda numérique 2026 ». Cette initiative comprend différents plans stratégiques, dont la Stratégie nationale pour l’intelligence artificielle (ENIA), destinée à poser un cadre de référence pour le développement d’une intelligence artificielle « inclusive, durable et centrée sur le citoyen ».
- Etablie à La Corogne, l’AESIA est rattachée au ministère des Affaires économiques et de la transformation numérique, par l’intermédiaire du secrétaire d’État à la numérisation et à l’intelligence artificielle.
- Avec l’AESIA, l’Espagne devient le premier pays européen à disposer d’une autorité dotée de ces caractéristiques et anticipe ainsi l’entrée en vigueur du futur règlement européen sur l’intelligence artificielle.
- L’ AESIA a en effet été créée en réponse à l’obligation, prévue dans la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées dans le domaine de l’intelligence artificielle (Législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, aux termes de laquelle chaque État membre doit désigner une « autorité de contrôle nationale » chargée de la mise en œuvre et de l’application de ce texte, de la coordination des activités confiées à cet État membre, du rôle de point de contact unique pour la Commission et de la représentation de l’État membre au sein du Comité européen de l’intelligence artificielle.
- Le projet de règlement sur l’IA attribue donc un certain nombre de missions à cette autorité de contrôle nationale. C’est pourquoi, même si ce texte européen n’est pas encore adopté, l’Espagne a souhaité prendre les devants, en créant d’ores et déjà un organisme idoine. Pour cette raison, l’arrêté royal a été traité par voie administrative urgente avec l’accord du Conseil des ministres le 13 juin 2023.
L’AESIA sera par ailleurs chargée d’assumer toutes les obligations dévolues à l’Espagne, en tant qu’État membre de l’Union européenne, dans le domaine de l’intelligence artificielle, afin de se conformer à toutes les autres obligations établies en la matière par les réglementations européennes et nationales.
Marc Gallardo
- Depuis le début de l’année 2023, l’intelligence artificielle (IA) est partout. Un programmeur n’y échappe pas : il est bombardé d’articles et de messages sur les réseaux sociaux l’invitant à recourir à l’IA, censée l’aider à écrire le code, nécessaire à la conception de logiciels informatiques, plus rapidement et plus efficacement.
- Attention, toutefois, l’utilisation de l’IA pour générer du code doit s’accompagner de certaines mises en garde. Notamment, l’IA, qui peut produire du code de manière autonome à partir de vastes ensembles de données et de bases de code préexistantes, tend à estomper les distinctions entre les créations émanant de l’homme et celles émanant de la machine. Ce qui soulève une question fondamentale : qui peut être considéré comme le créateur du code généré par l’IA et, par conséquent, comme le détenteur des droits d’auteur associés ?
- Les développeurs de logiciels s’appuient traditionnellement sur la protection des droits d’auteur pour protéger leurs créations. En Estonie, le code source d’un programme informatique est protégé par la loi sur le droit d’auteur, car il est considéré comme une œuvre d’auteur, au même titre que les œuvres littéraires. Le droit d’auteur confère des droits exclusifs aux créateurs, tels que le droit de reproduction, de distribution et de représentation de l’œuvre, ainsi que le droit de création d’œuvres dérivées. Grâce à son droit d’auteur, l’auteur d’un programme informatique peut ainsi interdire l’utilisation, la reproduction ou la distribution non autorisée de son code source par d’autres personnes.
Droits d’auteur sur le code généré par l’IA
- Lorsqu’une personne physique écrit une ligne de code, elle canalise sa liberté créative et intellectuelle pour créer un code source cohérent et exploitable. En vertu des lois sur le droit d’auteur en vigueur dans la plupart des pays, la qualité d’auteur, qui permet de bénéficier de la protection du droit d’auteur, n’est attribuée qu’aux seules personnes physiques, à l’exclusion des machines ou des systèmes d’IA. L’idée sous-jacente est que la créativité est l’apanage de l’être humain : seuls les humains peuvent être créatifs, contrairement à l’IA, qui fonctionne à l’aide d’algorithmes et est dénuée de créativité. Par conséquent, contrairement au code créé par l’homme, le code généré par l’IA ne peut bénéficier de la protection du droit d’auteur. Dès lors, comment attribuer la paternité d’un code généré par l’IA en cas d’absence d’intervention humaine dans le processus créatif ?
Paternité et utilisation d’outils d’IA pour générer du code
- Prenons pour exemple les outils GPT d’OpenAI ou Copilot de GitHub, où l’utilisateur saisit une invite et reçoit en réponse un morceau de code source. Dans cette invite, l’utilisateur n’entre qu’une description générale ou une idée du résultat attendu. Or, contrairement aux œuvres, les idées sont abstraites et ne sont pas protégeables par le droit d’auteur. On considère donc que l’invite saisie par l’utilisateur n’est pas protégeable par le droit d’auteur et que le code source qui en résulte ne l’est pas non plus, car l’utilisateur n’exerce pas de contrôle sur le ce code source : en d’autres termes, l’utilisateur ne fait qu’exprimer son idée. Dans cette logique, et même s’il faut toutefois prendre en compte le fait que le résultat obtenu dépendra de la manière dont le modèle d’IA est entraîné, ni l’utilisateur, ni OpenAI, ni GitHub n’a de contrôle créatif direct sur le code généré par l’IA. Résultat des courses, le code est sans auteur et n’est pas protégeable par le droit d’auteur.
Intégration de code généré par l’IA dans des projets existants
- Dans le cas où le code généré par l’IA est ensuite intégré dans une base de code plus large sur laquelle le créateur du projet exerce sa liberté de création, le code source est alors protégé par le droit d’auteur dans son ensemble. Les utilisateurs de générateurs de code basé sur l’IA doivent cependant faire preuve de prudence, car n’utiliser que des extraits de code n’exclut pas totalement les risques de violation du droit d’auteur, puisque dans certains cas, le code fourni par le générateur d’IA est déjà protégé par le droit d’auteur.
Un code généré par l’IA peut-il correspondre à un code préexistant ?
- Le droit d’auteur confère à l’auteur un droit exclusif sur sa création et lui permet d’interdire à d’autres personnes d’utiliser son œuvre. Toute utilisation non autorisée d’œuvres protégées constitue une atteinte aux droits de l’auteur. Force est de constater que les modèles d’IA sont entraînés sur de vastes ensembles de données, y compris des documents protégés par le droit d’auteur, et qu’il existe bel et bien un risque que le code généré par l’IA ressemble à un code protégé par le droit d’auteur ou le reproduise sans autorisation explicite. Si tel est le cas, les utilisateurs du code généré par l’IA s’exposent à des poursuites intentées par les créateurs originaux pour violation de leur droit d’auteur.
Utilisation du code généré par l’IA et licence
- Il arrive parfois que les auteurs du code source déposent leur code sur GitHub et l’accompagnent d’une licence GPLv3 contaminante. Comme certains modèles d’IA sont entraînés sur des codes déposés sur GitHub et un générateur basé sur l’IA peut donc produire un code identique à du code existant. Bien que le code soit open source et que sa copie soit autorisée, la licence GPLv3 stipule que l’utilisateur doit également publier le programme entièrement sous la licence GPLv3. À défaut, tout utilisateur qui ne joint pas la licence GPLv3 au programme risque de se voir rappeler à l’ordre.
Comment réduire le risque de violation des droits d’auteur ?
- Pour limiter les risques d’atteinte aux droits d’auteur, les développeurs doivent impérativement être vigilants quant aux données utilisées pour entraîner les modèles d’IA. Il est indispensable de s’assurer que les ensembles de données sont soigneusement sélectionnés, et ne contiennent pas de documents protégés par le droit d’auteur sans posséder les autorisations ou licences adéquates. Malheureusement, les fournisseurs de générateurs basés sur l’IA n’ont pas mis en place de mécanismes robustes pour identifier et exclure les contenus protégés par le droit d’auteur lors de la génération du code. Certains outils, comme Copilot, disposent toutefois d’une option qui permet de vérifier que le code généré au regard du code contenu dans les référentiels publics, afin de s’assurer que Copilot ne propose pas de code qui correspond au code d’un dépôt existant. Il est fortement conseillé aux utilisateurs d’activer cette option pour réduire les risques de violation.
Protection des données personnelles et utilisation de codes générés par l’IA
- Même en étant vigilant, le risque de transmettre de données à caractère personnel ou confidentiel lors de l’utilisation des services de générateurs basés sur l’IA ne peut être totalement exclu. Lorsque les développeurs utilisent des services d’IA tiers, ils communiquent bien souvent des quantités importantes d’informations sensibles, telles que des algorithmes propriétaires ou des données d’utilisateur. Cette pratique présente un risque de violation des données ou d’accès non autorisé, susceptible de compromettre la sécurité de l’ensemble du processus de développement du logiciel.
- Pour gérer cette problématique, les développeurs sont invités à évaluer soigneusement les fournisseurs de services d’IA avec lesquels ils contractent, et veiller à ce que des mesures adéquates de protection des données sont en place. Les contrats et les accords conclus avec les fournisseurs de services d’IA doivent clairement définir les modalités d’utilisation des données et les protocoles de sécurité mis en œuvre afin de protéger les informations confidentielles.
Conclusion
- L’utilisation croissante du code généré par l’IA soulève des questions complexes en matière de droit d’auteur auxquelles sont confrontés les développeurs de logiciels. L’IA faisant de plus en plus partie intégrante du processus de développement, il devient essentiel de clarifier le régime du droit d’auteur attaché au code généré par l’IA. Dans ce contexte, les développeurs doivent faire preuve de prudence et gérer en amont les risques de contrefaçon potentiels. L’utilisation responsable de ces outils implique également de bien maîtriser toute transmission de données personnelles ou confidentielles aux fournisseurs de services d’IA afin de protéger les développeurs et la sécurité des données.
Toomas Seppel
- En 2011, Watson, le superordinateur d’IBM, a fait une entrée fracassante dans l’arène médicale en ingurgitant toutes les bases de données existantes concernant les dossiers médicaux électroniques (DME) ainsi que des tonnes de littérature médicale. Du fait de ses excellents résultats dans la reconnaissance d’objets au sein des big data, Watson a fait l’objet d’un battage médiatique considérable, symbolisant à lui seul les immenses avancées espérées de l’IA dans le domaine médical. Las ! Watson n’a pas été à la hauteur des espérances et, en 2017, les centres médicaux américains d’élite, le M.D. Anderson Cancer Center et le Sloan Kettering Medical Center, ont stoppé leur collaboration avec IBM concernant Watson. Quelles sont les raisons de cet échec ? Ont notamment été avancées l’incompatibilité du superordinateur Watson avec de nombreux systèmes de DME hospitaliers existants, la nature fragmentée de ces dossiers, l’absence de données suffisantes en source ouverte, l’incapacité à mettre à jour en permanence les données des patients dans les systèmes de DME statiques, ou encore l’incapacité des systèmes de DME à intégrer pleinement toutes les données de DME des patients avec les données issues des applications des smartphones, des résultats des tests génétiques et d’autres images diagnostiques.
- Depuis, la pandémie de covid-19 a mis à rude épreuve les systèmes de soins de santé du monde entier et a contraint 93 % des organismes de soins de santé à réagir en accélérant leur transition numérique. De ce fait, et grâce aux progrès technologiques accomplis entre temps, certains des problèmes techniques antérieurs mentionnés plus haut ont désormais été résolus, ce qui permet potentiellement aux systèmes d’IA d’être universellement compatibles. Aujourd’hui, les technologies de fusion de données font qu’il est possible de mettre à jour et de rassembler en continu des données aussi disparates. Aux États-Unis, les DME sont principalement encadrés par deux lois, le « Health Insurance Portability and Accountability Act » (HIPAA) et le « Health Information Technology for Economic and Clinical Health Act » (HIGHTECH Act). Toutefois, aucune de ces deux lois n’a encouragé, ni encore moins exigé, la standardisation des DME, ce qui fait que le traitement par un système d’IA de gros volumes de données de santé provenant de plusieurs fournisseurs reste difficile. Un autre texte, le « 21st Century Cures » Act (Cures Act) contient bien, lui, une disposition exigeant l’interopérabilité des DME afin de permettre un échange normalisé des données de santé. Les prestataires de soins de santé qui ne se conforment pas à cette loi risquent de ne plus pouvoir participer à Medicare (la couverture santé universelle du gouvernement américain pour les citoyens de plus de 65 ans), et la perte de revenus qui en découlerait serait dévastatrice pour la plupart des prestataires et des hôpitaux. Or, alors que la date limite pour la standardisation des DME, fixée par le « Cures Act » à la fin de l’année 2022, est désormais dépassée, aucune mesure d’application stricte n’a encore été prise.
- Quoi qu’il en soit, l’absence de standardisation des DME n’empêche pas le dynamisme des activités de recherche et développement en matière d’IA dans tous les domaines médicaux, de la prévention des accidents vasculaires cérébraux à la détection précoce du cancer. En effet, pas un mois ne se passe sans que la presse se fasse écho d’avancées révolutionnaires dans le domaine de l’IA médicale. Par exemple, des chercheurs du MIT et des médecins du Massachusetts General Hospital ont mis au point un modèle d’IA capable de prédire de manière fiable le risque pour un individu de développer un cancer du poumon. Plusieurs algorithmes prédictifs permettent également désormais de prévoir le risque d’accident vasculaire cérébral. À l’aide d’un logiciel de reconnaissance vocale, l’IA diagnostique des pathologies telles que la maladie de Parkinson et les accidents vasculaires cérébraux en analysant les changements dans la voix d’un patient. Grâce à des capacités de ciblage accrues, l’IA révolutionne les essais cliniques, améliore les IRM et les tomodensitogrammes, crée de nouveaux vaccins à ARN messager et utilise le séquençage génétique pour mettre au point des thérapies innovantes pour les maladies courantes et rares.
- En outre, l’IA peut aider les entreprises pharmaceutiques à lancer leurs médicaments plus rapidement sur le marché, car l’IA est capable non seulement de séquencer des gènes, de prédire l’efficacité et les effets secondaires des médicaments, mais également de gérer les quantités astronomiques de documents et de données qui accompagnent nécessairement tout produit pharmaceutique. L’IA peut également faciliter la création de nouveaux anticorps thérapeutiques par le biais d’une simulation informatique (« in silico »), ce qui peut potentiellement réduire de plus de moitié le temps nécessaire à l’entrée de nouveaux candidats médicaments dans la phase d’essai clinique, tout en augmentant leur probabilité de succès clinique. La création d’anticorps in silico à l’aide de l’IA générative représente une avancée industrielle majeure vers la conception d’anticorps entièrement biosynthétisés et la mise au point de traitements révolutionnaires pour un grand nombre de patients. Et tout cela, en cliquant simplement sur un bouton.
- La difficulté consiste maintenant à faire sortir des laboratoires ces incroyables réalisations de l’IA médicale, et ains les faire passer du domaine de la recherche médicale à celui de la médecine grand public, afin que les patients puissent bénéficier au quotidien de cette technologie. En tout état de cause, quelle que soit la rapidité des progrès de la technologie, sa mise en œuvre au bénéfice de tous ne sera pas possible sans l’aide du législateur.
- L’évaluation des risques liés à l’IA médicale n’en est qu’à ses débuts. Les caractéristiques uniques de l’IA promettent des avancées révolutionnaires dans le secteur de la santé, mais posent également des défis considérables aux régulateurs. Il existe notamment des inquiétudes sur le fait que l’utilisation de IA dans les soins de santé affecte les relations patient-médecin, exacerbe les préjugés sociétaux, financiers et raciaux existants et porte atteinte aux droits des personnes au respect de leur vie privée.
- Par exemple, malgré les progrès réalisés dans le domaine de l’imitation du langage naturel, qui donnent l’impression séduisante que l’IA « comprend » tout, il est nécessaire de rappeler que l’IA n’est pas un être sensible, n’éprouve pas de sentiments, et ne comprend pas la portée des mots. Par conséquent, l’IA et jugement clinique ne font pas bon ménage. C’est pourquoi, plutôt que de remplacer les médecins, il serait plus adapté d’utiliser l’IA comme un outil permettant de donner un deuxième avis, auquel les médecins pourraient recourir à leur discrétion, ainsi que comme un outil d’aide pour les professionnels de santé qui peuvent tirer profit de ses capacités à automatiser des tâches répétitives. En outre, l’opacité du processus d’apprentissage en profondeur de l’IA ne permet pas aux humains de bien comprendre comment les algorithmes parviennent à leurs conclusions, et il est donc difficile de détecter les erreurs présentes dans le processus de prise de décision de l’IA.
- Alors qu’en Union européenne, la législation sur l’IA crée de nouvelles règles pour tous les algorithmes dans divers secteurs du marché en fonction du niveau de risque qu’ils peuvent poser, les États-Unis ont, quant à eux, adopté une approche différente. En grande partie à cause de la situation de blocage politique au sein du Congrès américain, qui rend presque impossible l’adoption de politiques générales, le président Joseph Biden a publié une directive de la Maison-Blanche intitulée « Blueprint for an AI Bill of Rights ». Cette déclaration des droits de l’IA aux États-Unis n’est pas d’une législation fédérale contraignante. En effet, ce texte ne fournit que des lignes directrices non contraignantes, que les organismes peuvent, volontairement, s’engager à respecter dans cinq domaines clés : l’existence de systèmes sûrs et efficaces, la mise en place de protections contre la discrimination algorithmique, la protection des données, la fourniture d’informations et d’explications, et la possibilité d’alternatives humaines, de réexamen et de recours. L’objectif de cette déclaration des droits est de créer des principes directeurs généraux pour guider les agences du gouvernement fédéral américain lorsqu’elles promulguent des réglementations dans leur domaine respectif, à elles ensuite de choisir les modalités de mise en œuvre. En conséquence, il peut exister des chevauchements et des incohérences entre les réglementations des différentes agences gouvernementales. En outre, en cas de changement d’administration lors de l’élection présidentielle américaine de 2024, ces principes directeurs, et les règles des agences de régulation prises sur cette base, pourraient être radicalement modifiés, voire entièrement supprimés.
- En tout état de cause, les dispositions de la Déclaration des droits de l’IA ne suffisent pas à encadrer les dispositifs médicaux américains de manière adéquate. De manière générale, il est difficile pour les lois actuelles sur les dispositifs médicaux d’aborder de manière adéquate les problèmes potentiellement soulevés par les dispositifs médicaux intégrant de l’IA. Les algorithmes d’IA sont capables d’ « apprendre » de leur expérience et d’améliorer leurs performances au fil du temps, le dispositif médical va donc lui-même s’adapter et changer au rythme de ces évolutions, ce qui nécessiterait, dès lors, une surveillance dudit dispositif qui s’étendrait au-delà de son approbation initiale. Or, l’agence fédérale américaine des produits alimentaires et médicamenteux (FDA) contrôle traditionnellement les dispositifs médicaux selon un système dit de « voie de pré-commercialisation appropriée », que l’agence reconnaît elle-même comme inadaptée aux technologies adaptatives telles que l’IA. Une possibilité serait de soumettre ces technologies à un examen préalable à la mise sur le marché, à l’instar de l’approche actuellement appliquée en matière de modifications.
- Partant du constat de la nécessité d’une plus grande surveillance des dispositifs médicaux intégrants de l’IA, la FDA a publié, en septembre 2022, de nouvelles orientations prévoyant que certains outils d’IA allaient être qualifiés de dispositifs médicaux et être réglementés en tant que tels dans le cadre de la surveillance exercée par l’agence sur les logiciels d’aide à la décision clinique (CDS). Les outils d’IA qui seront désormais réglementés en tant que dispositifs médicaux comprennent notamment des dispositifs permettant de prédire la septicémie, d’identifier la détérioration de l’état des patients, de prévoir les hospitalisations pour insuffisance cardiaque et de signaler les patients susceptibles d’être dépendants aux opioïdes.
- Avec un peu d’optimisme, on peut espérer que des changements majeurs se préparent dans la réglementation américaine de l’IA. En septembre 2023, les géants américains de la haute technologie ont rencontré la majorité des sénateurs américains pour discuter de la nécessaire réglementation de l’IA aux États-Unis., aucune décision n’a été prise lors de ces échanges, mais différentes thématiques ont pu être abordées, dont la création d’un nouvel organisme indépendant de surveillance de l’IA et l’établissement d’un protocole d’octroi de licences pour le développement de l’IA. Il a également été question de mettre en place un régime de responsabilité permettant aux personnes physiques de poursuivre les entreprises en dommages et intérêts pour les préjudices causés par les IA défectueuses. Même si la situation fragmentée de politique américaine actuelle rend toute prévision impossible, un projet de loi sur l’IA pourrait être présenté au début de l’année 2024.
Janice F. Mulligan
- L’intelligence artificielle générative peut trouver application dans d’innombrables domaines et secteurs. Elle s’appuie sur des modèles d’IA, tels que les réseaux antagonistes génératifs (GAN) et les réseaux de neurones récurrents (RNN), pour créer un contenu qu’il est souvent impossible de distinguer d’un contenu généré par l’homme. Par exemple, l’IA générative est utilisée pour des finalités aussi diverses que la génération de textes (création de contenu ou de code), d’images (création d’œuvres d’art, manipulation d’images via des trucages vidéo ultraréalistes, traduction d’image à image), d’audio (composition musicale, synthèse vocale), la conception de jeux, la recherche médicale et scientifique, ou encore la simulation et l’entraînement de véhicules autonomes, de robots, de systèmes d’IA.
- En fonction de l’industrie et du domaine dans lequel elles sont déployées, différentes branches du droit sont susceptibles de s’appliquer aux applications d’IA générative. Tel est le cas, notamment, du droit sur la protection des données : pour générer du contenu, il est nécessaire de traiter de vastes ensembles de données, qui incluent bien souvent des informations à caractère personnel. Or, le traitement de ces données peut enfreindre les dispositions de la législation sur la protection de la vie privée et des données personnelles. C’est également le cas du droit de la propriété intellectuelle, car la détermination de l’originalité et de la propriété du contenu généré par l’IA est une question complexe, qui pourrait bien remettre en question certains concepts traditionnels que l’on croyait fermement ancrés. Les tribunaux ont, d’ailleurs, d’ores et déjà été saisis de litiges.
- L’utilisation de l’IA générative pour produire des infox (fake news), des trucages vidéo ultra-réalistes (deepfakes) ou des contenus diffamatoires donne déjà lieu à des actions en justice. Plus globalement, l’IA générative, que celle-ci soit utilisée avec des intentions malveillantes ou non, représente une réelle menace pour les sociétés démocratiques. En effet, lorsque les données d’entraînement sur lesquelles reposent les applications d’IA sont inextricablement liées à des biais, elles peuvent aboutir, par exemple, à la création de contenus discriminatoires ou contraires à l’éthique.
Pour toutes ces raisons, les applications de l’IA vont être encadrées par de nouvelles mesures législatives, et notamment au niveau européen avec le très attendu règlement sur l’IA et la directive sur la responsabilité en matière d’IA. Une fois en place, ces textes imposeront de nouvelles exigences de conformité, et instaureront un régime de responsabilité pour les développeurs et les utilisateurs de l’IA, accompagnés de sanctions adaptées.
George A. Ballas
&
Nikolaos Papadopoulos
- L’IA étant de plus en plus populaire auprès des entreprises et intégrée dans les applications métiers, il devient essentiel de réaliser des analyses d’impact avant l’adoption de technologies basées sur l’IA. La réalisation de ces analyses peut être obligatoire du fait d’une disposition légale, ou bien mise en place de manière volontaire à titre de mesure de prudence et de sensibilisation à la gestion des risques. Le présent article présent les principes clés qui s’appliquent à ces analyses d’impact.
- Pourquoi ? Il existe de multiples raisons pour réaliser une analyse d’impact relative à l’IA, au premier rang desquelles l’évaluation des risques et la planification de la conception.
- Tout d’abord, une analyse d’impact relative à l’IA fournit un cadre permettant aux organisations d’identifier les différents risques et impacts potentiellement liés à l’adoption des technologies de l’IA. Le but n’est pas d’éliminer les risques (ce qui pourrait s’avérer impossible), mais plutôt de mettre en balance les risques et les avantages de la technologie d’IA envisagée avec les objectifs commerciaux attendus grâce à elle. C’est pourquoi, bien souvent, l’analyse d’impact conduit à l’adoption de la technologie envisagée (ou d’une technologie similaire) sous réserve d’aménagements consistant en la prise de mesures d’adaptation, de personnalisation ou d’analyse des risques associés.
- Comme il n’existe pas de modèle unique pour l’application de l’IA, une analyse d’impact relative à l’IA est utile pour définir les exigences spécifiques pour la mise en œuvre et le déploiement de cette technologie, ainsi que les caractéristiques spécifiques des politiques et lignes directrices associées à son usage et son fonctionnement.
- Quand ? Une analyse d’impact relative à l’IA doit être réalisée dès qu’un projet commercial crédible est envisagé en vue d’introduire des technologies d’IA, à titre principal ou secondaire, au sein de l’entreprise dans le cadre :
- des activités générales de l’entreprise ;
- d’une nouvelle activité commerciale ;
- de l’ouverture d’un nouveau bureau national ou étranger ;
- puis, par la suite, après adoption de la technologie, lors d’examens de suivi systématiques.
- La première analyse d’impact doit être réalisée avant de prendre la décision finale d’introduire la technologie et avant l’adoption des politiques et lignes directrices associées. En effet, l’objectif de l’analyse d’impact étant de servir de base pour ces éléments, elle doit naturellement être réalisée en amont de ceux-ci. A défaut, si l’analyse d’impact est conduite a posteriori, elle perd de sa raison d’être et les avantages qui peuvent en être tirés s’en verraient considérablement réduits. En outre, les entreprises devraient procéder à un suivi de l’analyse d’impact tout au long des différentes étapes du cycle d’utilisation de l’application d’IA.
- Comment ? Une analyse d’impact relative à l’IA met en place un cadre d’investigation permettant de recueillir des informations, d’identifier et de quantifier des bénéfices et des risques, et de formuler des recommandations visant à réduire les risques potentiels tout en préservant les avantages offerts.
- enquête : la phase d’investigation consiste à élaborer un questionnaire ou un formulaire à l’attention des équipes juridiques, de conformité, des équipes techniques et la direction de l’entreprise afin de recueillir des documents et des informations qui constitueront la base factuelle de l’analyse.
- analyse des bénéfices et des risques : cette étape comporte deux volets. Premièrement, les risques et les bénéfices de la technologie d’IA proposée sont identifiés et décrits aussi objectivement que possible. Les risques, en particulier, ne doivent pas être limités aux risques purement internes à l’entreprise. Deuxièmement, les risques et les bénéfices doivent être pondérés et classés afin d’établir un socle d’évaluation de leur importance et de leur gravité. Même si cette évaluation est intrinsèquement subjective, elle va permettre de constituer un référentiel pour la formulation de recommandations.
- recommandations : le rapport se terminera par des recommandations. Il convient de veiller à ce que celles-ci soient pratiques. Par exemple, il peut être recommandé d’éliminer ou d’atténuer certains problèmes via des mesures de conception technique ou de personnalisation. Si un problème revêt une importance capitale et présente un risque sérieux ou grave qui ne peut être atténué ou éliminé, la recommandation doit être de rejeter l’adoption de la technologie d’IA envisagée.
- Qui ? De nombreuses entreprises ont déjà mis en place des équipes transversales chargées d’examiner les questions soulevées par l’IA. Dans ce cas, la personne à la tête de cette équipe sera naturellement en charge de piloter l’analyse d’impact relative à l’IA. Si aucune équipe de ce genre n’est présente au sein de l’entreprise, alors la personne qui sera désignée pour conduire l’analyse doit posséder suffisamment d’ancienneté et d’expérience pour mener à bien cette mission. Une expérience dans la réalisation d’analyse d’impact relative à la protection des données est un plus, même s’il faut garder à l’esprit que ces deux types d’analyse d’impact sont différentes, tant par leur objet que par leurs exigences.
- Il faut, bien évidemment, que la personne chargée de l’analyse d’impact soit dûment habilitée à cette fin par la direction générale (idéalement, le conseil d’administration) assurer de s’assurer de la coopération de l’ensemble des métiers de l’entreprise, de remplir sereinement ses missions et d’élaborer son rapport sans rencontrer d’entraves ou d’obstacle.
- Quoi ? Les thématiques clés à aborder dans le cadre d’une analyse d’impact relative à l’IA sont les suivantes :
- finalité: avant d’adopter des applications d’IA, les entreprises doivent, avant toute chose, identifier précisément leurs besoins et leurs objectifs spécifiques. Il est important de fixer des objectifs mesurables en termes de réussite du projet d’IA. La technologie proposée permettra-t-elle d’améliorer l’efficacité opérationnelle ou de réduire les coûts de l’entreprise ? Les avantages escomptés sont-ils suffisamment importants pour compenser les risques potentiels ? En bref, il faut savoir pourquoi et comment utiliser l’IA.
- sécurité et fiabilité: l’analyse d’impact doit permettre de déterminer si l’application d’IA remplira les fonctions prévues sans nuire aux utilisateurs, aux organisations et à l’environnement. L’analyse d’impact doit passer en revue les processus de contrôle et de gestion de l’intégrité et de la qualité des données utilisées pour développer les applications d’IA. Il convient également d’évaluer le contrôle humain exercé sur la prise de décision en matière d’IA afin de s’assurer que l’utilisation de l’application d’IA aboutit aux résultats souhaités. Doivent également être intégrés à l’analyse d’impact des propositions d’évaluation et d’examen continus, afin que les applications de l’IA fassent l’objet d’un suivi et d’un examen réguliers en termes de sûreté, de sécurité et de réalisation des résultats escomptés.
- responsabilité et transparence: l’analyse d’impact doit examiner de manière critique la structure de gouvernance interne chargée de superviser l’application de l’IA. Cette évaluation consistera notamment à vérifier que les rôles et les responsabilités des personnes chargées de veiller au respect par l’entreprise des réglementations et des exigences applicables en matière d’IA sont clairement définis. L’évaluation examine et documente si l’entreprise doit diffuser des informations auprès des clients, des organismes de réglementation et de tous autres tiers sur son utilisation de l’IA, selon quelles modalités. À cette occasion, seront définis la stratégie de l’entreprise en matière d’information sur les objectifs et l’utilisation prévus de l’application d’IA, les types d’ensembles de données utilisés et la manière dont le système d’IA a été développé ou appliqué au sein de l’entreprise.
- protection des données: l’analyse d’impact examine la manière dont l’application d’IA collecte et utilise les données à caractère personnel au cours des phases d’entraînement et de déploiement de l’IA. En particulier, l’évaluation indique si des techniques appropriées de minimisation des données ont été appliquées pour éliminer, chiffrer, pseudonymiser ou minimiser l’utilisation des données à caractère personnel. L’analyse tient également compte des autres exigences prévues par les lois et cadres réglementaires applicables en matière de protection des données personnelles ou de gouvernance des données en général.
Pádraig Walsh
&
Stephanie Sy
- Aujourd’hui, les avocats du monde entier sont confrontés à des problématiques communes : des lois en constante évolution, des clients exigeants et un aléa judiciaire inévitable. Fort heureusement, la profession offre également de nombreux avantages pour contrebalancer ces points négatifs : une rémunération attractive, un travail intellectuel gratifiant et la satisfaction d’aider ses clients.
- Cependant, le monde juridique est à l’aube d’une révolution. Et cette révolution ne viendra pas d’une concurrence acharnée entre cabinets d’avocats ou de l’afflux d’avocats issus de la nouvelle génération, mais de l’essor de l’intelligence artificielle (IA), et notamment d’outils d’IA tels que ChatGPT de la société OpenAI. Les craintes que l’IA suscite n’est seulement liée au fait que l’IA va remplacer les hommes dans leurs tâches routinières, mais aussi à la possibilité que l’IA pénètre des professions autrefois considérées comme du domaine exclusif de l’expertise humaine, comme la profession d’avocat.
- Pour jauger les capacités de ChatGPT, je lui ai demandé de rédiger un poème, dans le style du XIXe siècle, sur les répercussions potentielles de l’IA sur l’emploi, et plus particulièrement sur l’emploi dans la sphère juridique. En quelques instants, cette IA a produit une superbe composition, sur la situation actuelle et future. Sa conclusion était sans ambiguïté : le monde du droit n’échappera pas à la révolution de l’IA.
- Prudence est de mise, toutefois, car il faut d’emblée souligner que ChatGPT, bien qu’impressionnant, n’est pas sans défauts. S’il excelle en tant qu’interface linguistique, son exactitude factuelle laisse parfois à désirer, en raison notamment des limites de ses données d’entraînement et de sa possible incompréhension des requêtes formulées par les humains. En effet, même si, grâce aux innombrables données et informations (principalement en langue anglaise) qu’il ingurgite, il surpasse de nombreux humains sur des connaissances purement académiques, ChatGPT reprend souvent les points de vue dominants et ses informations peuvent être obsolètes.
- Au-delà des tâches linguistiques, l’IA s’immisce dans d’autres aspects du monde juridique. Dans le système pénal, par exemple, les algorithmes sont de plus en plus utilisés pour aider à la prise de décisions concernant des condamnations ou des libérations conditionnelles. De fait, les systèmes d’IA ont les capacités pour traiter et d’évaluer simultanément une kyrielle de facteurs, qui vont bien au-delà des capacités humaines. Si d’un côté ces capacités permettent d’espérer des décisions plus cohérentes et mieux éclairées, elles soulèvent, d’un autre côté, de nombreuses questions. En effet, comme le désigne l’expression « garbage in, garbage out », bien connue en informatique, si les données introduites dans ces algorithmes comportent des biais ou des inexactitudes, les décisions qui en résultent peuvent reproduire ces défauts. C’est ce que l’on appelle le « biais algorithmique ».
- Par ailleurs, les principales inquiétudes des citoyens concernant l’IA ne portent pas seulement sur ce qu’elle peut faire aujourd’hui, mais aussi sur ce qu’elle pourrait faire demain. Pour l’heure, il existe de nombreux outils d’IA qui aident à réaliser des tâches juridiques. Les futurs systèmes d’IA qui sont en train d’être conçus auront, eux, un champ d’action plus large dans le secteur juridique : ils auront des capacités de compréhension des sentiments plus performantes, ils feront preuve de créativité et seront capables de formuler des arguments convaincants. L’IA pourrait ainsi transformer des informations en arguments solides, tout comme le fait un bon avocat. Dans le cadre d’affaires complexes, impliquant quantité de pièces et de détails complexes, l’IA pourrait même faire mieux que les humains.
- Au vu des progrès rapides de l’IA, tout laisse penser que, dans le futur, des systèmes d’IA seront spécialement conçus pour les métiers du droit. Certes, de tels changements prennent du temps. La résistance de la part de certains, l’inflation des règles à respecter et la survivance d’anciennes façons de faire pourraient également entraver le rythme de la progression de l’IA dans le domaine juridique, mais sans toutefois l’empêcher. A mesure que l’IA se généralise, les juristes devront donc inévitablement se surpasser pour être meilleurs que les machines en termes de rapidité, de connaissances et de relation client.
- En résumé, il ne s’agit pas de savoir si l’IA replacera les avocats, mais plutôt comment l’IA fera évoluer leur travail. Naturellement, il va de soi que les avocats qui sauront maîtriser l’IA et l’intégrer dans leurs tâches partent avec un réel avantage. D’où l’importance pour les professionnels du droit de s’adapter en permanence pour évoluer au rythme des nouvelles technologies.
Miklos Orban
- Alors que l’intelligence artificielle (« IA ») a été une grande priorité du gouvernement indien, et a bénéficié à ce titre de fonds importants, l’Inde n’est toujours pas dotée, actuellement, d’un arsenal juridique spécifique permettant d’encadrer le fonctionnement de l’IA.
- Pourtant, le ministère du Commerce et de l’Industrie a créé, dès 2017, un groupe de travail sur l’intelligence artificielle chargé de plancher sur le moyen d’ « intégrer l’IA dans nos processus de réflexion économique, politique et juridique afin de disposer d’une capacité systémique pour soutenir l’objectif de faire de l’Inde l’un des leaders des économies riches en IA ». Dans un rapport publié en 2018, ce groupe de travail a identifié dix secteurs stratégiques (industrie manufacturière, FinTech, soins de santé, agriculture, éducation, vente au détail, aide aux personnes à mobilité réduite, environnement, sécurité nationale, services d’utilité publique), et formulé des recommandations en ce sens. Ensuite, en 2018, le ministère de l’électronique et des technologies de l’information a constitué quatre comités chargés de promouvoir les initiatives en matière d’IA et d’élaborer un cadre politique. Il a dévoilé une stratégie qui vise à intégrer l’IA dans les applications courantes. Enfin, le ministre d’État chargé de l’électronique et des technologies de l’information a récemment annoncé que l’Inde s’engageait à réglementer l’IA afin de protéger les utilisateurs, et déclaré que « notre approche de la réglementation de l’IA est simple. Nous réglementerons l’IA comme nous réglementerons le Web3 ou toute autre technologie émergente afin de nous assurer qu’ils ne nuisent pas aux citoyens numériques ».
- Entre-temps, l’Inde a connu une forte augmentation des investissements, du nombre de startups et des usages liés à l’IA dans divers secteurs d’activité, et l’IA pourrait contribuer à hauteur de 957 milliards de dollars à l’économie indienne d’ici 2035. Dans ce contexte, il est urgent d’établir un cadre juridique spécifique à l’IA en Inde. Nous présentons ci-dessous un panorama de l’évolution du cadre juridique indien au regard des règles, réglementations et lignes directrices actuelles ou prévues.
- Loi sur l’Inde numérique. Le gouvernement travaille actuellement sur une « loi sur l’Inde numérique » (Digital India Act), destinée à remplacer la loi sur les technologies de l’information de 2000. Cette future loi, dont le projet devrait être publié prochainement, a pour ambition de propulser l’économie numérique à 1 000 milliards de dollars d’ici 2030. Elle vise à rationaliser et à réglementer les activités du secteur technologique (et donc l’IA) et à répondre aux préoccupations liées à la sécurité en ligne, aux contenus préjudiciables pour les enfants, aux violations du droit d’auteur, aux contenus trompeurs et à l’utilisation de l’IA.
- National Association of Software and Service Companies (NASSCOM). Cette association industrielle à but non lucratif, qui est la plus importante dans le secteur technologique en Inde, a diffusé une série d’instructions à l’intention des développeurs et des chercheurs, afin de faciliter le développement de modèles et d’outils d’IA à des fins commerciales et non commerciales. Pour la NASSCOM, il est essentiel de traiter ces questions en amont pour gérer les enjeux potentiels et de garantir le respect des principes de transparence et de responsabilité en assurant une communication auprès du public. Fiabilité sécurité, inclusivité et amélioration de l’humanité devraient être des maîtres-mots. Plus particulièrement, ces instructions mettent l’accent sur la nécessité de lutter contre les biais, de respecter les normes en matière de protection de la vie privée, de mener des tests de sécurité, de partager publiquement les résultats des activités de recherche et de concentrer ses efforts sur les applications génératives de l’IA qui renforcent l’action et le bien-être de l’homme tout en promouvant la sécurité de la technologie de l’IA. La NASSCOM a élaboré un code d’éthique qui définit des principes et des lignes directrices pour une utilisation responsable de l’IA.
- Stratégie nationale sur l’intelligence artificielle (NSAI). La Commission de planification de l’Inde a élaboré la NSAI et envisagé la création d’un groupe composé du ministère des Affaires commerciales et du ministère de la politique et de la promotion industrielles en charge de superviser la réglementation de l’IA. Parmi les missions envisagées : créer un cadre de propriété intellectuelle pour les progrès de l’IA et d’introduire des cadres juridiques pour la protection des données, la sécurité et la vie privée.
- Ministère de l’électronique et des technologies de l’information. Comme indiqué ci-dessus, le ministère de l’électronique et des technologies de l’information a créé quatre comités chargés d’examiner diverses questions éthiques liées à l’IA. Dans l’optique d’élaborer un cadre politique pour l’IA en Inde, chacun de ces quatre comités se sont vus attribuer des thématiques de travail spécifiques, à savoir plateforme et données pour l’IA, exploitation de l’IA pour identifier les missions nationales dans les secteurs clés, cartographie des capacités technologiques, catalyseurs politiques clés, gestion des compétences (skilling et reskilling), recherche et le développement, et cybersécurité, sûreté, questions juridiques et éthiques.
- National Institution for Transforming India (NITI Aayog). Le groupe de réflexion gouvernemental NITI Aayog s’est fixé pour but d’élaborer une politique nationale pour orienter l’approche du gouvernement en matière d’utilisation de l’IA dans divers secteurs. Il a déjà publié des projets de documents décrivant la mise en place d’un organe de contrôle et l’application de principes responsables en matière d’IA, tels que la sécurité et la réhabilitation, l’égalité, l’inclusion, la non-discrimination, la protection de la vie privée et la sécurité, la transparence, la responsabilité, la protection et le renforcement des valeurs humaines. Ces principes ont été conçus pour contrôler les normes éthiques, mettre en place les cadres juridiques et techniques nécessaires, innover en matière de techniques et d’outils d’IA et représenter l’Inde sur la scène internationale.
Conclusion. Malgré les progrès impressionnants de l’IA, il est évident que l’arsenal juridique indien n’en est qu’à ses débuts et qu’il doit encore gérer certaines questions liées à la sécurité, à l’inclusivité et à la protection afin d’être complet et de proposer des garanties appropriées. Le défi principal consiste à tirer tous les bénéfices de l’IA tout en garantissant le respect des principes éthiques. Plusieurs projets ont été proposés en ce sens, mais davantage de détails sont attendus.
Siddhartha George,
&
Dharani V. Polavaram,
&
Bilal Lateefi
- Les personnes dont le contenu en ligne est utilisé pour entraîner des chatbots d’intelligence artificielle (les éditeurs ») sont confrontées à de nombreuses questions juridiques, au premier rang desquelles les violations des droits de propriété intellectuelle, l’exception de « fair use », et le droit de la concurrence.
Contexte
- En novembre 2022, la société OpenAI a lancé ChatGPT, son agent conversationnel utilisant l’IA générative. ChatGPT est un outil de traitement du langage naturel qui interprète les requêtes ou demandes humaines et y répond en temps réel. Les utilisateurs peuvent ainsi avoir des conversations avec ce chatbot et lui demander d’effectuer différentes tâches, telles que rédiger un courriel ou un texte, ou encore créer du code. Depuis, toutes les grandes plateformes technologiques se sont empressées de lancer leurs propres produits basés sur l’IA. Ces solutions logicielles sont appelées « grands modèles de langage » (Large Language Model, « LLM »). Pour générer des réponses en langage naturel aux demandes des utilisateurs, les LLM doivent être entraînés sur d’énormes quantités de données, y compris des données publiées en ligne et protégées par le droit d’auteur. Et c’est bien ce qui inquiète les éditeurs en ligne, qui dénoncent un « vol de propriété intellectuelle » et réclament une juste rémunération pour leur contenu.
Chatbot et droit d’auteur
- Toute copie non autorisée d’un contenu protégé par le droit d’auteur constitue une violation des droits d’auteur. Or, lorsqu’ils récupèrent des informations à partir de jeux de données sous-jacents pour leur entrainement, les chatbots procèdent bien à une copie du contenu des pages web dans leurs LLM. À cette violation, peut potentiellement s’ajouter une violation du droit d’auteur lorsque les moteurs de recherche copient des pages de sites internet pour les intégrer dans leurs index de recherche.
- Le « moteur de réponse » du chatbot saisit ensuite les données issues de l’utilisation de l’IA, qui permet à son propriétaire de gagner de l’argent grâce à la publicité ciblée. En cas d’utilisation abusive de contenu protégé par le droit d’auteur, le titulaire des droits d’auteur peut faire valoir l’atteinte portée à ses droits de propriété intellectuelle et réclamer une indemnisation. Une restitution des bénéfices obtenus de cette manière peut également être demandée.
Le droit d’auteur au Royaume-Uni
- Le Royaume-Uni travaille actuellement sur un code de bonnes pratiques pour encadrer l’usage par les entreprises du secteur de l’IA de contenus protégés par le droit d’auteur. Les entreprises qui respectent ce code pourraient, en contrepartie, se voir octroyer une « licence raisonnable » de la part du titulaire des droits.
- Les tribunaux britanniques se sont prononcés sur la question de la reproduction de contenus protégés par le droit d’auteur par des sites web et décidé qu’elle nécessite une licence. En 2010, dans l’affaire Newspaper Licencing Agency & Ors v Meltwater Holding BV & Ors, les juges ont estimé que portaient atteinte aux droits d’auteur des journaux les entreprises qui utilisaient un service tiers de surveillance des médias afin de recevoir des copies de titres et d’extraits d’articles de journaux sans posséder de licence d’utilisateur final.
- Des litiges similaires portant sur la reproduction de contenus protégés par le droit d’auteur, cette fois-ci par l’IA, commencent à apparaître. Dans un récent communiqué de presse, l’agence de photographie et banque d’images Getty Images a annoncé attaquer en justice la société Stability AI devant les tribunaux britanniques. Elle reproche à cette société d’IA d’avoir copié des millions de ses images. Une action similaire a également été intentée par des artistes américains en Californie.
- Le droit de la concurrence
- En cas de violation massive des droits d’auteur touchant plusieurs acteurs, il peut être difficile d’engager des poursuites, du fait de contraintes en termes de coûts et de temps, et du fait de l’absence de compétence claire en matière d’action de groupe. C’est la raison pour laquelle il est parfois préférable de laisser l’autorité de concurrence compétente s’en charger. Au Royaume-Uni, un groupe d’entreprises ou une catégorie d’entreprises, tels que les éditeurs en ligne, ont la possibilité d’engager une action de groupe devant une juridiction spécialisée dans les contentieux en droit de la concurrence, le Competition Appeal Tribunal.
- Une telle démarche pourrait arriver, car les éditeurs craignent que le fonctionnement des moteurs de réponse d’IA conduise à séparer, de manière anticoncurrentielle, les utilisateurs des créateurs de contenu que sont les éditeurs. Les éditeurs dont les contenus sont utilisés pour entraîner les IA génératives et les rendre plus précises perdent, de ce fait, du trafic et sont ainsi moins compétitifs pour décrocher des recettes publicitaires attrayantes et ciblées. Lorsqu’une grande plateforme extrait et récupère, par la pratique dite de « scrapping », les contenus des éditeurs pour renforcer sa position par rapport à des éditeurs rivaux en matière de publicité, cela équivaut à une exclusion des concurrents.
- Si le moteur de réponse d’IA est intégré à un moteur de recherche et que ce moteur de recherche a déjà été jugé en position dominante, il sera plus facile de prouver la position dominante.
- Actuellement, la version gratuite de ChatGPT ne fournit pas de références pour les réponses qu’elle donne, mais les utilisateurs peuvent lui demander de citer ses sources. Cependant, même lorsque l’IA générative cite ses sources, l’impact sur les données collectées et le ciblage publicitaire ou les revenus de l’éditeur n’est pas clairement défini, car il faut pour cela que l’utilisateur clique sur la source et soit dirigé vers le site web de l’éditeur.
La position des propriétaires d’IA générative
Jusqu’à présent, les entreprises d’IA génératives ont botté en touche. Elles sont en effet restées assez vagues face à ces préoccupations, éludant les questions de droit d’auteur et mettant plutôt en avant les avantages qu’elles que leur outil d’IA représenterait pour les éditeurs et les utilisateurs. Ainsi, Microsoft et Google préfèrent vanter la relation symbiotique entre les éditeurs et les produits d’IA générative, soulignant que leurs produits représentent un échange de valeur.
- Des entreprises comme OpenAI réfutent les accusations de violation des droits d’auteur, basant leur défense sur le « fair use ». Le « fair use » (« usage raisonnable ») est une exception aux droits d’auteur qui permet une utilisation limitée d’œuvres protégées par des droits d’auteur sans l’autorisation du titulaire des droits d’auteur. Elles soutiennent que leur utilisation des contenus opère une « transformation » (transformative use), parce que les chatbots d’IA comme ChatGPT ne se contentent pas de reproduire du texte, ils génèrent de nouveaux textes, de nouvelles images ou de nouvelles vidéos sur la base des modèles qu’ils ont appris à partir de combinaisons de données d’entraînement. Toutefois, l’argument de « fair use » devient difficile à tenir si le produit final est commercialisé et monétisé et si ceux qui ont fourni la précieuse propriété intellectuelle nécessaire pour entraîner l’IA n’ont pas été rémunérés pour leur contribution. À défaut, le propriétaire de l’IA peut s’enrichir injustement en utilisant abusivement le travail et la propriété intellectuelle d’autrui.
- Les exploitants des moteurs de réponse d’IA pourraient aussi être tentés de soutenir que les résultats intégrés sont, objectivement, plus utiles pour les utilisateurs. Ce fut d’ailleurs un argument soulevé par la société Google dans le cadre de l’affaire dite « Google Shopping » où il lui était reproché d’abuser de sa position dominante en favorisant son propre comparateur de produits par rapport aux comparateurs de produits concurrents : toutefois, en l’espèce, si la Commission européenne n’a pas contesté la qualité et l’utilité supérieures du format « Google Search », elle a néanmoins estimé que cette pratique était anticoncurrentielle en raison de la manière dont elle promouvait et affichait ses propres résultats au détriment de ceux de ses concurrents.
Daniel Preiskel