La récente enquête de BSI intitulée « Trust in AI », menée auprès de plus de 10 000 adultes dans neuf pays (dont l'Australie, la Chine, le Royaume-Uni et les États-Unis), met en lumière les attitudes actuelles à l'égard de l'intelligence artificielle (IA).
L'IA ne relève plus de la science-fiction. Elle devient une réalité quotidienne ayant le potentiel de transformer notre monde et d'être une force pour le bien commun. Toutefois, pour être véritablement prospère, le public doit avoir confiance en l'IA.
L'enquête de BSI explore les opportunités offertes par l'IA pour façonner un avenir meilleur et accélérer la transition vers un monde durable. Examinons quelques résultats de l'enquête :
Comment aimeriez-vous que l'IA façonne notre avenir d'ici 2030 ?
79 % des personnes interrogées ont la conviction que l'IA va contribuer à la réduction des émissions de carbone, mais elles sont toutefois sceptiques.
L'IA est sur le point de devenir un outil essentiel permettant aux entreprises de déterminer efficacement l'empreinte carbone des produits en mesurant et en analysant rapidement les émissions de gaz à effet de serre. Cependant, le public doit être convaincu que cette technologie est réellement efficace afin d'en récolter les bénéfices environnementaux.
L'enquête de BSI a demandé aux participants d'évaluer le niveau de confiance nécessaire à l'utilisation de l'IA dans différents secteurs majeurs. Les résultats sont les suivants : 74 % des personnes interrogées ont indiqué que la confiance envers l'IA était nécessaire pour le diagnostic et les traitements médicaux et 75 % ont exprimé le même avis pour la fabrication de denrées alimentaires, qui comprend des tâches telles que la commande et la catégorisation des aliments en fonction de leur date de péremption.
Cette tendance se retrouve dans l'ensemble des secteurs, avec entre 72 % et 79 % des consommateurs qui reconnaissent que la confiance est nécessaire pour que l'IA soit utilisée de manière efficace dans tous les domaines, de la cybersécurité à la construction, en passant par les transactions financières.
38 % déclarent utiliser l'IA, quelle que soit sa forme, dans leur travail quotidien.
Certains pays sont déjà plus avancés en matière d'utilisation de l'IA. La Chine (70 %) et l'Inde (64 %) sont en tête en ce qui concerne l'utilisation quotidienne de l'IA au travail, tandis que l'Australie (23 %) et le Royaume-Uni (29 %) sont les pays qui l'utilisent le moins. Aux États-Unis, 37 % des personnes interrogées déclarent utiliser actuellement l'IA au travail, tandis que 46 % ne l'utilisent pas et qu'environ 17 % ne sont pas certaines. Au niveau mondial, parmi les personnes qui n'utilisent pas encore l'IA au travail, près de la moitié ne savent pas si leur lieu de travail l'adoptera d'ici 2030.
L'incertitude concernant l'adoption de l'IA existe au niveau organisationnel, en particulier dans les politiques de cybersécurité et de risque numérique. Pour certaines organisations, l'IA peut être relativement nouvelle et elles ont donc décidé d'interdire l'utilisation de ces outils sur les systèmes d'entreprise afin d'atténuer les menaces perçues. Dans certains cas, les employés ont trouvé des moyens de contourner ces contrôles en utilisant leurs ordinateurs personnels pour exercer leurs fonctions.
Il est essentiel de dispenser une formation qui leur permette de comprendre comment l'IA peut être utilisée au travail, ce qui, d'après les données, n'est pas monnaie courante à l'heure actuelle. Heureusement, 55 % des personnes interrogées reconnaissent que nous devrions former les jeunes à travailler dans un monde optimisé par l'IA.
61 % des répondants souhaitent l'établissement de lignes directrices internationales visant à garantir une utilisation sûre de l'IA.
Il est demandé que des lignes directrices sur l'utilisation sûre et responsable de l'IA soient mises en place en vue de renforcer la confiance et la sensibilisation à l'égard de la technologie d'IA. Les normes internationales, telles que la future norme de gouvernance de l'IA (ISO 42001) et les réglementations jouent un rôle à cet égard.
Les gouvernements et les agences réglementaires commencent également à traiter ce problème. Par exemple, le président Biden a récemment publié le décret Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (décret sur le développement et l'utilisation sûrs, sécurisés et fiables de l'intelligence artificielle), décrivant l'approche du gouvernement américain au sujet de la « gouvernance du développement et de l'utilisation de l'intelligence artificielle de manière sûre et responsable ».
De même, l'objectif de la Loi sur l'intelligence artificielle de l'UE est de fournir un « cadre juridique visant à renforcer de manière significative les réglementations sur le développement et l'utilisation de l'intelligence artificielle ». D'autres pays ont suivi le mouvement, comme en témoigne le Sommet sur la sécurité de l'IA 2023.
Le manque actuel de compréhension et la confiance instable envers l'IA constituent un obstacle majeur, qui pourrait limiter son adoption et ses bénéfices. En vue de renforcer la confiance envers la technologie, les organisations peuvent établir des mesures de protection régissant l'utilisation éthique de l'IA. (Lire Considérations éthiques sur l'IA dans les soins de santé par Shusma Balaji, Data Scientist, BSI).
Nous connaissons les écueils des précédentes révolutions technologiques qui ont négligé la confiance du public, comme le boom de l'Internet et l'essor des réseaux sociaux. À l'aube de l'ère de l'IA, il est essentiel de fournir aux personnes les outils et connaissances appropriés pour concrétiser le potentiel de l'IA tout en évitant les erreurs du passé.
Cet article a été initialement publié par Forbes sous le titre : How To Unlock Trust In AI: Key Insights From BSI's 'Trust In AI' Poll le 15 décembre 2023. Rejoignez Mark Brown et les collaborateurs de Digital Trust lors de leur présentation à la conférence du SASIG The Future of AI:. Friend or Foe? le 13 février 2024.