Les technologies d’intelligence artificielle interpellent et les réponses des IA sont souvent surprenantes. Or, la grande complexité de certains algorithmes (des milliards de paramètres parfois), tout comme la taille et la composition des jeux de données d’entraînement qui ont servi à « l’apprentissage » de la machine, rendent leur mode opératoire peu transparent et interrogent quant aux implications éthiques et juridiques de ces technologies.
Force est de constater que les intelligences artificielles soulèvent de nombreuses questions éthiques ! Ces réflexions ont été abordées dans de nombreux ouvrages parmi lesquels on peut citer le mythe de la singularité ou Servitudes virtuelles, écrits par Jean-Gabriel Ganascia, professeur à l'Université de la Sorbonne et chercheur au LIP6, qui fut également le président du comité d’éthique du CNRS. Il y aborde les grandes problématiques éthiques de l’intelligence artificielle et déconstruit certains mythes. Ces ouvrages constituent une excellente porte d’accès à ces sujets.
Avec l’IA, les questionnements éthiques se situent à tous les niveaux, notamment dans la constitution des jeux de données d'entraînement…
De fait, dans le monde en constante évolution de l'intelligence artificielle, un problème persistant demeure : le biais dans les données d'entraînement des algorithmes. Ces biais, qui peuvent être de nature sociétale, culturelle ou statistique, ont un impact significatif sur la performance et l'équité des systèmes d'IA. Par exemple, une IA entraînée sur des données majoritairement issues d'une certaine catégorie de population risque de ne pas fonctionner aussi bien pour d'autres groupes. De la même manière, les préjugés existants dans les données d'entraînement pourraient amener une IA à reproduire ces mêmes préjugés, créant ainsi une boucle de rétroaction négative. Il est crucial pour les concepteurs d'IA de tenir compte de ces biais lors de la collecte des données d'entraînement afin de développer des systèmes d'IA plus justes et plus efficaces.
Afin d’éviter les biais, il faut s’assurer que les données soient représentatives de la diversité de la réalité (représentations de genre, de religion ou de culture, etc.).
Dans certains cas extrêmes et relativement rares, des problèmes moraux peuvent se poser dans l’utilisation même de l’algorithme.
L’exemple le plus parlant est certainement celui du Deadbot (Project December), qui vise à entraîner un modèle de langage avec les données textuelles de personnes décédées pour concevoir un chatbot imitant la manière de s’exprimer de ces personnes. On comprend immédiatement le problème que cela pose.
Dans les entreprises technologiques, les comités éthiques se multiplient pour mettre en place des garde-fous salutaires. Certains états cherchent à réglementer l’IA comme en Europe où on insiste sur la nécessaire explicabilité des algorithmes (pourquoi cette décision a-t-elle été prise ?) et la non-discrimination des utilisateurs.
De la protection des individus…
Lors d’un rapport publié le 26 avril 2023, le Laboratoire d’Innovation Numérique de la CNIL (le LINC) a réaffirmé des principes fondamentaux qui doivent s’appliquer aux intelligences artificielles, y compris génératives : « Il existe certaines règles structurantes (comme le droit d’auteur ou la protection des données personnelles) qui s’imposent à la conception et à l’utilisation de systèmes d’IA générant du contenu. »
En effet, les grandes sociétés technologiques utilisent très souvent le retour des utilisateurs pour améliorer les performances de leurs IA. Or, cela se passe souvent dans le plus grand flou et les utilisateurs des IA sont souvent, sans le savoir, des travailleurs de l’ombre de ces technologies.
C’est ici que les problèmes de souveraineté numérique peuvent se poser car en vertu du « Patriot Act », une loi américaine adoptée en 2001 à la suite des attaques terroristes du 11 septembre, les agences de renseignement US ont obtenu des pouvoirs élargis pour surveiller les communications électroniques sur le sol américain. Cette loi a été renforcée en 2018 par le « Cloud Act » qui s’applique au-delà des mers (le "o" de cloud signifie Overseas). Ils peuvent demander aux grandes plates-formes toutes les informations sur une entreprise ou un individu pour ce qui relève de leur protection nationale. L’hébergement des données sur des infrastructures françaises ou européennes est un moyen de se préserver notre souveraineté numérique à condition que la société qui exploite ces infrastructures ne relève pas du droit américain. On traite ici de renseignement, les risques commercial et industriel restent limités.
Au-delà des « Patriot Act » et « Cloud Act », et malgré une réglementation éthique en Europe, rien n’empêche un fournisseur européen d’utiliser nos données pour enrichir son IA ou faire du renseignement. La seule protection efficace réside dans le cryptage des données.
En outre, la question des utilisations malveillantes de l’intelligence artificielle générative est une source de préoccupation majeure. En effet, des individus mal intentionnés pourraient utiliser ChatGPT pour créer et propager des informations malveillantes ou de désinformation dans l’objectif de manipuler l'opinion publique. Cette menace pourrait entraîner des conséquences dévastatrices pour la société, notamment dans les domaines de la politique ou de la finance.
Enfin, les cybercriminels n’hésitent pas à utiliser l’IA pour générer des textes toujours plus réalistes et persuasifs pour piéger les destinataires, à créer des plug-in pour navigateur Internet ou des Apps pour smartphone. Sous prétexte de nous faciliter la vie, d'être plus ergonomique et d'améliorer l'accès à l’IA, ces textes peut être truffés de chevaux de Troie, installés légitimement par les utilisateurs, qui captent toutes les données sensibles des utilisateurs.
… à la protection du patrimoine informationnel des entreprises.
Tout l’écosystème qui gravite autour de l’IA est générateur d’activités particulièrement malveillantes qui surexposent, au travers des comportements individuels, le patrimoine informationnel des entreprises.
L’utilisation de l’IA expose potentiellement les données d’une entreprise ou celles de ses clients. En effet, il n’y a aucune garantie que les données transmises restent confidentielles. Elles pourraient être utilisées par les sociétés propriétaires de ces IA à des fins commerciales (revente d’information), ou restituées par l’IA à d’autres utilisateurs. Ce sont autant de risques de compromission de données (sensibles, d’innovation, de sécurité, etc.) possiblement protégées par une réglementation ou une clause contractuelle qui peuvent avoir un impact significatif sur la réputation d’une entreprise.
L’utilisation par inadvertance ou méconnaissance de ces plug-in ou Apps malveillants favorise la fuite ou le vol de données sensibles (comme des informations techniques de connexion) et sont autant d’informations précieuses pour les cybercriminels qui tentent de s’introduire dans le système d’information des entreprises, en profitent pour voler puis revendre les données sur le Darkweb et bloquer, quand ils le peuvent, tout le système d’information.
Le développement des intelligences artificielles pose aussi de nombreuses questions juridiques.
Une première problématique concerne la responsabilité juridique. Avec l’IA, il est difficile de trouver un responsable… Si une voiture autonome « prend une décision » qui affecte un être humain, qui est responsable ? L’algorithme et ses concepteurs ? La qualité des données d’entraînement ? Le constructeur ? Le conducteur ?
C’est pour cette raison que l’explicabilité de la décision de l’algorithme est si importante. Malheureusement, dans bien des cas, le nombre de paramètres est si élevé qu’il est presque impossible d’expliquer clairement une « décision » de l’IA.
D’une manière générale, les questionnements juridiques apparaissent en amont et en aval de l’intelligence artificielle. En amont d’abord, avec les données d’entraînement. Ont-elles été collectées ou utilisées de manière sauvage (ce qui semble être le cas pour ChatGPT), c’est-à-dire, au mépris du droit d’auteur tel qu’il est défini en Europe ?
Autre question capitale : qui est l’auteur d’un texte produit par ChatGPT ou d’une image générée par Midjourney ? Les différents pays cherchent actuellement à définir (ou non) des règles de protection du droit d’auteur. A l’heure où nous nous exprimons, le texte produit par ChatGPT appartient à la personne qui rédige le prompt (ChatGPT est considéré comme le pinceau de l’artiste). En ce qui concerne les images générées par Midjourney, elles ne sont pas protégeables au titre du droit d’auteur.
Comme toujours dans le domaine de l’innovation technologique, la législation et l’éthique arrivent dans un second temps… Il faut connaître les usages pour pouvoir prévenir des dérives d’utilisation. Or, cette approche juridique par les usages correspond de moins en moins à la réalité des nouveaux outils d’IA dont les usages possibles sont multiples.