10 janvier 2022

L’IA et l’éthique, des enjeux de taille à dépasser

Les progrès de l’IA qui touchent la plupart des secteurs d’activité actuels soulèvent de nombreuses questions éthiques majeures au sein de la société. A priori, l’utilisation des nouvelles technologies au quotidien soulève quelques doutes moraux et a même incité à la réalisation de nombreuses analystes académiques, de recherches et de remises en question sur le sujet. L’IA dans l’éthique met en avant plusieurs enjeux de taille à dépasser, des enjeux que nous allons vous faire découvrir chez l’IA School.

L’éthique dans l’IA, des remises en question constantes

Pour de nombreuses juges, l’éthique définit l’aptitude à faire la différence entre ce qu’on est en mesure de faire et ce qu’il est correct de faire réellement. Il inclut des dimensions morales, humanitaires pour mettre en avant la voix de la raison et de la justice. Les lois et les différents cadres réglementaires encadrent toutes les actions qu’un organisme a le droit de faire. Par contre, il est moins évident de reconnaître ce qu’il est juste de faire.

Dans l’univers du big data et de l’intelligence artificielle, la différence entre ceux deux natures est de plus en plus difficile à cerner. Les frontières paraissent floues avec l’infinité des utilisations possibles des solutions découlant de l’IA qui respectent des réglementations, mais qui peuvent poser des problèmes en matière d’éthique.

L’éthique dans l’IA consiste à des remises en question constantes en vue de connaître tous les impacts qu’une nouvelle technologie peut avoir sur la vie humaine, sur l’environnement et dans la société. Ces remises en questionsont d’autant plus nécessaires et urgentes avec l’ampleur de plus en plus gigantesque que prend le big data dans nos vies, et sur à toutes les échelles possibles.

C’est d’ailleurs pour faciliter la réalisation de ces analyses en permanence que les data scientists et data analystssont arrivés à concevoir des algorithmes de deep learning. Ces algorithmes ont la particularité d’apprendre de leurs erreurs pour aboutir à une version plus correcte, plus juste et plus parfaite d’une solution, d’un logiciel ou d’un quelconque outil doté d’IA.

Dépasser le piège de l’exclusion

L’un des risques les plus médiatisés des solutions d’IA est l’exclusion. En effet, bon nombre d’entre elles comportent des systèmes de traitement de données surestimés ou sous-estimés, occasionnant parfois des décisions erronées.

Ce genre d’erreurs pose non seulement des problèmes éthiques, mais en plus peut engendrer l’élimination des candidatures à forte valeur dans le cadre d’un événement important comme les jeux olympiques. Pour limiter au maximum l’apparition de tels erreurs, il faut un minimum alimenter les algorithmes du jeu d’une quantité importante de données et définir avec plus de précision les paradigmes qui les caractérisent. Les technologies de reconnaissance faciale aident d’une certaine façon à dépasser ce challenge pour éviter toute forme de favoritisme et de racisme.

Contourner le piège de la punition

Pour la plupart des scientifiques de données, l’intelligence artificielle ne porte pas le bien ou le mal en lui. Sa nature va dépendre de l’usage que l’homme décide de l’employer. En Chine par exemple, le gouvernement veut exploiter les progrès de la science et du big data pour contrôler sa population à l’aide des capteurs de mouvements, des différents logiciels et même des applications installées sur leurs smartphones.

Cette situation met en avant l’absence du consentement de l’utilisateur dans la collecte et l’exploitation de ses données personnelles. En vue de concilier IA et éthique, il faudrait alors imposer des limites à ne pas franchir pour respecter les questions éthiques fondamentales de l’humain. Les avancées technologiques doivent valoriser le développement des compétences, le fait de rendre service aux utilisateurs tout en respectant leurs décisions, sans vouloir s’en servir pour les espionner ou encore les exploiter comme bon nous semble.

Respecter les limites de l’intrusion

Les applications et les algorithmes dotés d’IA offrent de vastes possibilités en ce qui concerne la gestion des ressources humaines et les processus de recrutement en entreprise. Cependant, ils peuvent aussi servir de moyens d’intrusion pour s’immiscer dans le vie d’une personne. Or, la collecte, la possession et l’exploitation de données à caractère personnel ou professionnel sans consentement de l’utilisateur ciblé soulève des problèmes éthiques importants.

Les concepteurs de ces solutions d’IA ont la responsabilité de tracer des limites à ne pas dépasser dans la collecte et le traitement des données personnelles.

L’éthique de l’IA : renforcer la protection des données

Pour dépasser tous les enjeux d’ordre éthique, l’intelligence artificielle est amenée à renforcer la protection des données en respectant les différents cadres réglementaires en vigueur. Le RGPD (Règlement sur la Gestion et la Protection des Données) insiste justement sur le fait de collecter et de gérer des données de manière responsable, peu importe ses objectifs et la nature de ses activités. Les dispositions législatives qu’il souligne font également le point sur le partage et le contrôle de la data.

Plus

d'articles

23 avril 2024

Retrouvez l’interview de Coline Alberti, étudiante en deuxième année de Mastère à l’IA School sur le campus d’Aix-en-Provence. Pourquoi Coline […]

19 avril 2024

De la santé à la finance en passant par l’automobile, l’intelligence artificielle (IA) a révolutionné de nombreux domaines. Cependant, cette […]

3 avril 2024

Vous avez envie d’en savoir plus sur la tech ? alors voici 3 films qui vous intéresseront tout particulièrement ! […]

2 avril 2024

Retrouvez l’interview de Pompilio Fanelli, formateur en Data Visualisation pour l’IA School sur le campus de Bordeaux.   Le parcours […]

21 mars 2024

Si nous voulons comprendre l’ampleur de la biodiversité marine et savoir comment elle pourrait être en danger, nous devons d’abord […]

14 mars 2024

Selon la direction générale de la Sécurité intérieure (DGSI), 72 attentats ont été déjoués depuis 2012. Mais, ces résultats ne […]