La confiance dans l’IA : Perspectives globales

Sommaire

Alors que l’IA offre de nombreuses promesses d’innovation et d’efficacité, elle suscite également des préoccupations sur la manière dont elle est utilisée et gouvernée. Une étude récente explore les niveaux de confiance du public envers l’IA à travers le monde, en mettant en lumière les avantages, les risques perçus et les attentes des citoyens vis-à-vis de son développement. Voici un aperçu des résultats clés.

Confiance envers l'IA : un scepticisme général

À l’échelle mondiale, 61 % des personnes expriment une forme de scepticisme vis-à-vis de l’IA, oscillant entre indifférence et méfiance totale. Toutefois, ce manque de confiance varie considérablement d’un pays à l’autre. 

Les économies émergentes, comme le Brésil, l’Inde, la Chine et l’Afrique du Sud, affichent des niveaux de confiance relativement élevés envers les systèmes d’IA. 

À l’inverse, des pays comme la Finlande et le Japon montrent un faible niveau de confiance, avec moins d’un quart des personnes prêtes à faire confiance à ces technologies.

La confiance varie selon les domaines d'application

Le contexte d’utilisation de l’IA joue un rôle clé dans la manière dont elle est perçue. En santé, par exemple, les individus sont plus enclins à faire confiance à l’IA, notamment pour les diagnostics médicaux ou les traitements, étant donné les bénéfices directs qu’ils en retirent. En revanche, dans le domaine des ressources humaines, pour des tâches comme le recrutement ou la gestion des promotions, la confiance diminue fortement. L’IA est également mieux acceptée dans des domaines comme la sécurité publique et les systèmes de recommandation.

Avantages et risques : un équilibre précaire

Bien que 85 % des personnes reconnaissent que l’IA apporte des avantages notables, comme l’amélioration de l’efficacité et de l’innovation, un solide 50 % reste sceptique quant à savoir si les bénéfices surpassent les risques. Les préoccupations majeures concernent la cybersécurité, la perte d’emplois due à l’automatisation, ainsi que les biais dans les systèmes d’IA, qui pourraient conduire à des décisions injustes. Les populations occidentales et japonaises semblent particulièrement prudentes par rapport à l’IA, ce qui souligne la nécessité de traiter les risques de manière transparente et proactive.

Les principes de l'IA digne de confiance : un consensus global

Les citoyens à travers le monde s’accordent à dire que, pour qu’une IA soit digne de confiance, elle doit respecter des principes éthiques fondamentaux. La protection des données, la sécurité, l’équité, la transparence et la responsabilité sont des éléments jugés cruciaux pour garantir que l’IA soit utilisée de manière juste et responsable. Les mécanismes d’assurance — comme les revues éthiques, les certifications d’éthique et la mise en place de normes industrielles — augmentent considérablement la confiance du public dans les systèmes d’IA.

Qui peut développer et gouverner l'IA ?

Les universités et les organisations de défense sont perçues comme les entités les plus dignes de confiance pour développer, utiliser et gouverner l’IA. En revanche, les gouvernements et les entreprises commerciales sont moins bien considérés par le public. Un tiers des personnes manquent de confiance dans ces institutions pour réguler et développer l’IA de manière responsable. Cette dynamique reflète un phénomène plus large de confiance institutionnelle, suggérant qu’une relation positive entre la population et ses gouvernements pourrait renforcer la confiance en l’IA.

L'IA et la régulation : un besoin d'encadrement renforcé

L’une des conclusions les plus marquantes de cette étude est que 71 % des personnes estiment que l’IA doit être régulée. Cependant, malgré cette forte demande, seulement 40 % des personnes estiment que les régulations actuelles sont suffisantes pour assurer une utilisation sûre de l’IA. Une supervision externe et indépendante est jugée nécessaire par une large majorité de la population. Les différences sont marquées selon les pays, les citoyens de l’Inde et de la Chine étant les plus confiants dans les régulations en place, tandis que ceux du Japon et de la Corée du Sud sont beaucoup plus sceptiques.

L'IA au travail : complément ou contrôle ?

Lorsqu’il s’agit de l’usage de l’IA dans le cadre professionnel, les gens semblent ouverts à l’idée que l’IA puisse augmenter ou automatiser certaines tâches. Cependant, ils restent plus réticents lorsque l’IA est utilisée pour les évaluer ou gérer en tant qu’employé, par exemple dans les processus de recrutement ou d’évaluation des performances. Les pays émergents comme ceux des BICS sont plus confiants que les pays occidentaux, où l’usage de l’IA au travail est perçu avec davantage de scepticisme.

L’IA représente une révolution technologique avec un potentiel immense, mais pour en tirer pleinement parti, il est crucial de gagner et de maintenir la confiance du public. Cela passe par la mise en œuvre de principes éthiques clairs, une régulation adéquate et des mécanismes d’assurance transparents. Le défi consiste à allier l’innovation à une gestion responsable, pour s’assurer que les bénéfices de l’IA l’emportent sur ses risques.

L’utilisation de l’IA soulève des questions complexes, comme la gestion des attentes irréalistes, la difficulté d’implémentation dans des cas d’usage concrets, et la nécessité d’assurer pérennité, fiabilité, et confiance.

Découvrez comment répondre aux préoccupations que peuvent avoir les entreprises en matière de sécurité, de contrôle humain et de durabilité, pour aider les décideurs, développeurs et professionnels à tirer parti du potentiel de l’IA de manière responsable. 👇

Partager :

Partager sur LinkedIn