L’IA fait grand bruit depuis plusieurs mois. Et face à l’effervescence que crée cette technologie, des questions éthiques doivent désormais être prises en compte. Protection des citoyens, prévention des biais et sobriété sont en jeu.
C’est un texte qui s’affiche comme une première mondiale et qui veut, en quelque sorte, poser les règles du jeu. En février 2024, le Parlement Européen a voté l’AI Act, une loi globale sur l’usage de l’intelligence artificielle. Cette réglementation vise à protéger les droits des citoyens et à renforcer une utilisation éthique de l’IA. « L’IA existe depuis bien plus longtemps qu’on ne le croit pas, commente Raphaël Fétique, senior partner et cofondateur du cabinet de conseil Converteo. En revanche, nous assistons à une industrialisation de l’IA. Son passage à l’échelle est devenu un pillage à l’échelle : des organisations ont aspiré du contenu web qui était ouvert et disponible et à partir de ça, elles ont créé des services. Et ces derniers peuvent avoir des influences importantes. »
La question de la confidentialité
Le principe, dans sa forme la plus basique : l’IA est une technologie accessible au grand public et capable de répondre à des questions et à échanger avec l’humain. Il n’y aurait pas eu autant d’importance autour de l’AI Act si l’outil était réservé à des usages B to B. « Les particuliers, malheureusement, font beaucoup moins attention aux questions de légalité que les entreprises, qui sont soit soucieuses de ce qu’elles transmettent, soit équipées d’un département juridique efficace… Aussi, le problème est qu’on expose la population à une technologie dont on ne sait pas si elle est réellement respectueuse des lois existantes », poursuit Raphaël Fétique. C’est pourquoi, il faut déjà veiller à protéger les citoyens de ses propres erreurs qui seraient, par exemple, de transmettre des données confidentielles « Les IA jusqu’à présent étaient quasi invisibles : le consommateur n’avait pas l’impression d’interagir avec une telle technologie. Et force est de constater que les IA étaient suffisamment intégrées dans les expériences clients pour qu’ils ne se rendent compte de rien. Aujourd’hui, on ne peut plus faire semblant de ne pas savoir. Si j’interroge une IA et lui transmets une information confidentielle (bilan de santé, fiche d’imposition, etc.), il faut que je comprenne bien, en amont, que l’outil ne sait pas oublier cette donnée…, commente l’expert. Le contexte réglementaire n’avait pas anticipé ce genre de dérapage. »
Quelle sobriété pour l’IA ?
S’interroger sur l’éthique de l’IA, c’est aussi prendre en compte les biais, notamment cognitifs, qu’elle peut engendrer. Sur quoi est-elle entrainée ? Quelles données utilise-t-elle en input ? Ces dernières peuvent en effet nourrir des biais qui ne reflètent pas toujours la complexité et la variabilité du monde réel. Un exemple ? « L’IA peut estimer qu’un médecin est nécessairement un homme blanc, répond Raphaël Fétique. Car statistiquement, le plus grand nombre d’illustrations qu’elle a pu voir sur le web ouvert, c’étaient des médecins blancs. Elle a vu moins de personnes ethniques et moins de femmes. Le consommateur mal aguerri, sans correction de ce type de biais, peut prendre ceci comme une vérité avérée : un médecin est forcément un homme blanc. » Il s’agit donc d’avoir conscience de ces biais, de pouvoir les identifier et de corriger les résultats, de les compléter avec des données d’apprentissage ou des pondérations. D’ailleurs, selon une étude Ifop pour Alucare (mars 2024), seul un tiers (33 %) des Français se sent en capacité de détecter une image ou une vidéo générée par IA. D’où un nécessaire travail de pédagogie auprès de l’utilisateur pour lui montrer la limite de certaines questions ou le danger à considérer des résultats comme des vérités absolues.
Enfin, un autre aspect de l’éthique de l’IA, c’est de s’interroger sur la sobriété de l’intelligence artificielle. « L’IA générative comporte un aspect généraliste, elle a vocation à répondre à énormément de questions différentes en puisant dans sa technologie. Aussi, utilise-t-on le bon outil pour faire les bonnes choses ? » mentionne Raphaël Fétique. Impossible de fermer les yeux sur le coût environnemental que supposent toutes ces requêtes. Aux citoyens, donc, de mieux comprendre les systèmes qu’ils sollicitent et les pouvoirs publics de fournir un cadre plus clair et pédagogique pour limiter les dérives.