Le Think Tank « Impact AI », en collaboration avec KPMG et BNP Paribas, a publié les résultats de la première édition de l'Observatoire de l'IA « responsable » le 14 janvier dernier. Cette initiative vise à évaluer les perceptions des employés sur le déploiement de l'intelligence artificielle (IA) dans leur environnement professionnel et à explorer les pistes pour aller vers une IA « responsable ».
L’intelligence artificielle (IA) s'impose dans le monde professionnel, marquée par des avancées technologiques rapides. Si les salariés se montrent plutôt enthousiastes à l’égard de cette nouvelle technologie, l’étude menée par Viavoice auprès de 1 000 salariés français du secteur privé, indique que 74 % d’entre eux souhaitent une régulation stricte du développement de l’IA. Ainsi, ils sont 57% à percevoir positivement, l’IA Act, la règlementation européenne qui exige un cadre pour limiter les risques et garantir la transparence.
Des résultats qui traduisent une volonté de concilier innovation, sécurité et responsabilité, priorité citée par 36 % des salariés interrogés. Cependant, ils restent préoccupés pas les risques liés à l’IA, comme l’impact sur l’emploi (41 %), la confidentialité des données (33 %), et la dépendance excessive à ces technologies (31 %).
L’IA « responsable » reste un concept plébiscité
Pour 63 % des salariés, le développement d’une IA « responsable » est jugé « souhaitable ou indispensable », ce chiffre atteignant 83 % chez les utilisateurs réguliers de l’IA. Les motivations incluent la protection des données personnelles (36 %), le respect des droits fondamentaux (27 %), et l’amélioration du bien-être humain (25 %).
En parallèle, les entreprises commencent à mettre en œuvre des démarches concrètes : 44 % des salariés souhaitent une surveillance renforcée des IA, tandis que des actions comme la formation et la gestion éthique des données sont identifiées comme prioritaires.
Une adoption freinée par le manque de compétences et les coûts
Si les perspectives sont encourageantes, plusieurs obstacles à l’adoption de l’IA demeurent. Les principaux freins identifiés incluent le manque de compétences internes (30 %), la complexité technique (26 %), et les coûts de mise en œuvre (24 %). Ces défis soulignent la nécessité d’intensifier les politiques de formation et d’accompagnement des entreprises.
Par ailleurs, dans un contexte où les salariés réclament plus d’acculturation à l’IA, l’étude met en lumière un paradoxe : bien que l’IA « responsable » soit perçue comme un levier d’efficacité (44 %) et d’amélioration des décisions (39 %), la mise en œuvre reste encore inégale. Seulement 9 % des salariés déclarent disposer d’une charte éthique ou d’un comité dédié dans leur entreprise.
Un enjeu de compétitivité mondiale
Sur la scène mondiale, les États-Unis et la Chine dominent largement la course à l’IA. La France, classée cinquième, est perçue comme distancée par ses propres salariés. Cependant, l’idée d’une IA « responsable » pourrait permettre à la France et à l’Europe de se différencier, en s’appuyant sur des principes éthiques et une transparence accrue.
Selon les auteurs de l’étude, l’adoption des IA « responsables » constitue une chance pour la France et l’Europe de se repositionner dans la compétition mondiale, tout en affirmant des valeurs éthiques et durables. Toutefois, pour y parvenir, « il est essentiel de lever les freins internes et d’intensifier les initiatives de sensibilisation et de formation ».
À noter que les conclusions de l'Observatoire guideront les actions d’Impact AI en 2025, avec un accent sur le travail, la santé, l’environnement et la formation. Un sommet dédié, l’AI Action Summit, est prévu en février pour approfondir ces thématiques.
Samorya Wilson