21/01/2025

Temps de lecture : 5 min

L’Observatoire de l’IA responsable publie ses premiers travaux

La première édition de l'Observatoire de l’IA responsable d’Impact AI analyse la façon dont les salariés perçoivent le déploiement de l’IA dans leur entreprise.

Impact-ai

Impact AI, le think & do tank de l’IA responsable créé en 2018, dévoile, en partenariat avec KPMG en France et BNP Paribas, les travaux de son Observatoire de l’IA Responsable. Ce dernier a été réalisé par Viavoice et le centre de prospective GCF sur un échantillon représentatif des salariés du secteur privé en France. « L’objectif de cet Observatoire est d’analyser la façon dont ces salariés perçoivent le déploiement de l’IA dans leur entreprise, les opportunités et limites de cette technologie, leurs réactions face à l’enjeu de l’IA responsable et ce qu’impliquerait sa mise en œuvre dans leurs tâches quotidiennes« , précise Christophe Lienard, président d’Impact AI qui comprend 85 membres dont la moitié étant des entreprises du CAC40 et l’autre des ETI et des grandes écoles. Cette étude d’opinion a été menée auprès d’un échantillon de 1 000 salariés du secteur privé, issu d’un échantillon représentatif de la population salariée résidant en France métropolitaine, âgée de 18 ans et plus (interviews réalisées en ligne du 15 au 25 novembre 2024, représentativité de l’échantillon assurée par la méthode des quotas (sexe, âge, catégorie socio-professionnelle, région, secteur et taille de l’entreprise).

Le rôle de l’IA dans le rayonnement d’un pays

La définition de l’IA responsable proposée aux salariés interrogés était libellée de cette façon : une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé.

À l’examen des résultats de l’Observatoire, un premier constat s’impose : le rôle de l’IA dans le développement et le rayonnement d’un pays est considéré comme important ou très im- portant pour plus d’un salarié sur deux (52 %), mais valorisé encore davantage par ceux qui utilisent l’IA (74 %). À ce jeu, et sans surprise, ce sont les États-Unis qui sont considérés aujourd’hui comme le principal gagnant du développement de l’IA (pour 53 % des salariés qui utilisent l’IA) devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) et l’Union européenne (29 %), Israël (29 %).

Trouver le bon équilibre entre innovation, sécurité et responsabilité

Près de trois quarts des salariés jugent nécessaire de réguler le développement de l’IA, dont 37 % « tout à fait nécessaire », avec une proportion plus importante chez les utilisateurs de l’IA (85 % se prononcent en faveur d’une régulation). Pour autant, 36 % des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, estiment qu’il faut trouver un équilibre entre innovation, sécurité et responsabilité dans les projets IA des entreprises, 21 % estiment qu’il faut privilégier le respect des principes éthiques, alors que seuls 10 % font de l’innovation une priorité. Quant à identifier quelle structure ou institution serait la plus à même d’exercer les fonctions de contrôle et de régulation, 30 % des salariés penchent plutôt pour une agence internationale que pour une régulation par l’État (25 %) ou par l’Europe (19 %). Pour autant, l’AI Act européen est jugé plutôt comme une « très bonne ou une bonne chose » par 57 % des salariés interrogés, cette proportion atteignant même 75 % chez les utilisateurs d’IA dans le cadre professionnel.

Quelles conséquences sur l’emploi ?

Les salariés identifient assez clairement les risques liés au déploiement de l’IA dans les entreprises. Ils placent au premier rang l’impact sur les emplois (41 %), devant les risques liés à la confidentialité des données (33 %), une dépendance excessive à l’IA (31 %), la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).

L’IA responsable, une nécessité éthique et un gage d’efficacité…

Face à une définition précise de l’IA responsable, 63 % des salariés interrogés jugent que le développement d’une telle IA est « souhaitable ou indispensable » (25 % l’estiment même indispensable), avec une conviction encore plus fortement ancrée chez les utilisateurs d’IA dans le cadre professionnel (83 %). À quels domaines doit s’appliquer en priorité la responsabilité de l’IA ? 36 % des salariés citent d’abord la protection des don- nées personnelles et sensibles, devant le respect des droits fondamentaux (27 %), l’amélioration du bien-être humain (25 %), le respect de l’humain et de sa singularité (24 %), le respect des principes éthiques (22 %), la garantie de la transparence (21 %), le respect de la santé humaine (20 %), l’impact environnemental (17 %), l’explicabilité des choix (13 %), la réduction des biais dans les algorithmes (11 %), l’inclusion sociale (9 %).

Derrière cette diversité des champs de responsabilité de l’IA, apparaît néanmoins une conviction, forte de près de 8 salariés sur 10, qu’une l’IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits, quelle que soit la taille de l’entreprise, même si la question des droits fondamentaux est la plus sensible dans les entreprises de plus de 250 salariés, cités par 36 % des personnes interrogées contre une moyenne de 25 % dans les entreprises de taille inférieure. Pour autant, au-delà des valeurs qu’elle porte, l’IA responsable est considérée comme un facteur d’efficacité dans le travail (44 % des opinions), aide à prendre de meilleures décisions (39 %), tout en consommant moins de ressources (32 %) et en étant transparentes (31 %) et éthiques (30 %).

Une mise en œuvre encore inégale dans les entreprises, une acculturation à intensifier

Forts de leurs convictions, les salariés français jugent de façon très disparate la manière dont leurs entreprises s’emparent de ce concept d’IA responsable et le mettent en œuvre. 63% des salariés déclarent ignorer tout des démarches mises en œuvre par leur entreprise pour se mettre en conformité en matière d’IA responsable. Invités à situer, sur une échelle de 1 à 10, sa mise en place dans leur entreprise, 50 % des salariés s’arrêtent à 4. Seuls, 9 % d’entre eux indiquent pouvoir se référer à une charte éthique et/ou à un interlocuteur ou un comité d’éthique concernant l’IA. C’est probablement la raison pour laquelle 44 % des salariés appellent de leurs vœux la mise en place d’une surveillance de l’IA, 42 % souhaitent que l’entreprise garantisse une utilisation de l’IA selon des principes éthiques.

Pour les salariés, les entreprises disposent néanmoins des atouts nécessaires pour réussir en leur sein une acculturation à l’IA responsable, à commencer par ses compétences internes en matière d’IA (28 % des salariés), la sensibilisation aux enjeux liés à l’IA et la politique de formation (22 %), la motivation au change- ment de la part des salariés (20 %), l’engagement de la direction (16 %), le montant des budgets alloués à l’IA responsable (14 %). Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en œuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.

« Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d’appropriation de toutes et tous des outils d’IA responsable », analyse Christophe Lienard. Avant de et rappeler et de conclure que la plus essentielle des responsabilités est « d’utiliser l’IA uniquement lorsque c’est nécessaire« .

Allez plus loin avec The Good

The Good Newsletter

LES ABONNEMENTS THE GOOD

LES ÉVÉNEMENTS THE GOOD