Comment s'assurer que nous utilisons l'IA de manière responsable ?
Les progrès de l'apprentissage automatique montrent que les modèles peuvent évoluer rapidement et avoir un impact sur une grande partie de la société.
Des algorithmes contrôlent le fil d'actualité sur les téléphones de tout le monde. Les gouvernements et les entreprises commencent à utiliser l'IA pour prendre des décisions fondées sur des données.
Alors que l'IA devient de plus en plus ancrée dans le fonctionnement du monde, comment s'assurer que l'IA agit de manière équitable ?
Dans cet article, nous examinerons les défis éthiques liés à l'utilisation de l'IA et verrons ce que nous pouvons faire pour garantir une utilisation responsable de l'IA.
Qu'est-ce que l'IA éthique ?
L'IA éthique fait référence à l'intelligence artificielle qui adhère à un certain ensemble de directives éthiques.
En d'autres termes, c'est un moyen pour les individus et les organisations de travailler avec l'IA de manière responsable.
Ces dernières années, les entreprises ont commencé à respecter les lois sur la confidentialité des données après que des preuves d'abus et de violation ont été révélées. De même, des lignes directrices pour une IA éthique sont recommandées pour s'assurer que l'IA n'affecte pas négativement la société.
Par exemple, certains types d'IA fonctionnent de manière biaisée ou perpétuent des biais déjà existants. Considérons un algorithme qui aide les recruteurs à trier des milliers de CV. Si l'algorithme est formé sur un ensemble de données avec des employés à prédominance masculine ou blanche, il est possible que l'algorithme favorise les candidats qui appartiennent à ces catégories.
Établir des principes pour une IA éthique
Nous avons pensé à établir un ensemble de règles à imposer aux intelligence artificielle depuis des décennies.
Même dans les années 1940, lorsque les ordinateurs les plus puissants ne pouvaient effectuer que les calculs scientifiques les plus spécialisés, les auteurs de science-fiction ont réfléchi à l'idée de contrôler des robots intelligents.
Isaac Asimov a inventé les trois lois de la robotique, qu'il a proposé d'intégrer dans la programmation des robots dans ses nouvelles comme élément de sécurité.
Ces lois sont devenues la pierre de touche de nombreuses futures histoires de science-fiction et ont même éclairé de véritables études sur l'éthique de l'IA.
Dans la recherche contemporaine, les chercheurs en IA se penchent sur des sources plus fondées pour établir une liste de principes pour une IA éthique.
Étant donné que l'IA affectera en fin de compte les vies humaines, nous devons avoir une compréhension fondamentale de ce que nous devrions et ne devrions pas faire.
Le rapport Belmont
Comme point de référence, les chercheurs en éthique consultent le rapport Belmont comme guide. La Rapport Belmont était un document publié par les National Institutes of Health des États-Unis en 1979. Les atrocités biomédicales commises pendant la Seconde Guerre mondiale ont conduit à une pression pour légiférer sur les directives éthiques pour les chercheurs pratiquant la médecine.
Voici les trois principes fondamentaux mentionnés dans le rapport :
- Respect des personnes
- Bienfaisance
- Justice
Le premier principe vise à défendre la dignité et l'autonomie de tous les sujets humains. Par exemple, les chercheurs devraient minimiser le risque de tromper les participants et exiger de chaque personne qu'elle donne son consentement explicite.
Le deuxième principe, la bienfaisance, met l'accent sur le devoir du chercheur de minimiser les dommages potentiels aux participants. Ce principe donne aux chercheurs le devoir d'équilibrer le rapport entre les risques individuels et les bénéfices sociaux potentiels.
La justice, le dernier principe énoncé par le rapport Belmont, met l'accent sur une répartition égale des risques et des avantages entre les groupes qui pourraient bénéficier de la recherche. Les chercheurs ont le devoir de sélectionner des sujets de recherche parmi la population en général. Cela réduirait au minimum les préjugés individuels et systémiques qui pourraient avoir une incidence négative sur la société.
Placer l'éthique dans la recherche en IA
Alors que le rapport Belmont visait principalement la recherche impliquant des sujets humains, les principes étaient suffisamment larges pour s'appliquer au domaine de l'éthique de l'IA.
Le Big Data est devenu une ressource précieuse dans le domaine de l'intelligence artificielle. Les processus qui déterminent la manière dont les chercheurs collectent les données doivent suivre des directives éthiques.
La mise en œuvre des lois sur la confidentialité des données dans la plupart des pays limite quelque peu les données que les entreprises peuvent collecter et utiliser. Cependant, la majorité des nations ont encore un ensemble rudimentaire de lois en place pour empêcher l'utilisation de l'IA pour causer des dommages.
Comment travailler avec l'IA de manière éthique
Voici quelques concepts clés qui peuvent aider à travailler vers une utilisation plus éthique et responsable de l'IA.
Contrôle du biais
L'intelligence artificielle n'est pas intrinsèquement neutre. Les algorithmes sont toujours sensibles aux biais insérés et à la discrimination car les données dont ils tirent des enseignements incluent des biais.
Un exemple courant d'IA discriminatoire est le type qui apparaît fréquemment dans les systèmes de reconnaissance faciale. Ces modèles réussissent souvent à identifier les visages masculins blancs, mais réussissent moins bien à reconnaître les personnes à la peau plus foncée.
Un autre exemple apparaît dans le DALL-E 2 d'OpenAI. Les utilisateurs ont découvert que certaines invites reproduisent souvent les préjugés sexistes et raciaux que le modèle a repris à partir de son ensemble de données d'images en ligne.
Par exemple, lorsqu'on lui demande des images d'avocats, DALL-E 2 renvoie des images d'avocats masculins. D'autre part, demander des photos d'hôtesses de l'air renvoie principalement des hôtesses de l'air.
Bien qu'il soit impossible d'éliminer complètement les biais des systèmes d'IA, nous pouvons prendre des mesures pour minimiser ses effets. Les chercheurs et les ingénieurs peuvent obtenir un meilleur contrôle des biais en comprenant les données de formation et en engageant une équipe diversifiée pour offrir des commentaires sur la façon dont le système d'IA devrait fonctionner.
Approche de conception centrée sur l'humain
Les algorithmes de votre application préférée peuvent vous affecter négativement.
Des plateformes telles que Facebook et TikTok sont capables d'apprendre quel contenu servir pour garder les utilisateurs sur leurs plateformes.
Même sans l'intention de causer du tort, l'objectif de garder les utilisateurs collés à leur application aussi longtemps que possible pourrait entraîner des problèmes de santé mentale. Le terme « doomscrolling » a gagné en popularité en tant que terme fourre-tout pour passer un temps excessif à lire des nouvelles négatives sur des plateformes telles que Twitter et Facebook.
Dans d'autres cas, le contenu haineux et la désinformation reçoivent une plate-forme plus large car ils contribuent à accroître l'engagement des utilisateurs. UN étude de 2021 des chercheurs de l'Université de New York montre que les messages provenant de sources connues pour la désinformation obtiennent six fois plus de likes que les sources d'information réputées.
Ces algorithmes manquent d'une approche de conception centrée sur l'humain. Les ingénieurs qui conçoivent la manière dont une IA exécute une action doivent toujours garder à l'esprit l'expérience utilisateur.
Les chercheurs et les ingénieurs doivent toujours se poser la question : « comment cela profite-t-il à l'utilisateur ? »
La plupart des modèles d'IA suivent un modèle de boîte noire. Une boîte noire dans machine learning fait référence à une IA où aucun humain ne peut expliquer pourquoi l'IA est arrivée à un résultat particulier.
Les boîtes noires sont problématiques car elles diminuent la confiance que nous pouvons accorder aux machines.
Par exemple, imaginons un scénario où Facebook a publié un algorithme qui a aidé les gouvernements à traquer les criminels. Si le système d'IA vous signale, personne ne pourra expliquer pourquoi il a pris cette décision. Ce type de système ne devrait pas être la seule raison pour laquelle vous devriez vous faire arrêter.
L'IA explicable ou XAI doit renvoyer une liste des facteurs qui ont contribué au résultat final. Pour en revenir à notre hypothétique pisteur criminel, nous pouvons modifier le système d'IA pour renvoyer une liste de publications contenant un langage ou des termes suspects. À partir de là, un humain peut vérifier si l'utilisateur signalé mérite d'être examiné ou non.
XAI offre plus de transparence et de confiance dans les systèmes d'IA et peut aider les humains à prendre de meilleures décisions.
Conclusion
Comme toutes les inventions créées par l'homme, l'intelligence artificielle n'est pas intrinsèquement bonne ou mauvaise. C'est la façon dont nous utilisons l'IA qui compte.
Ce qui est unique à propos de l'intelligence artificielle, c'est le rythme auquel elle se développe. Au cours des cinq dernières années, nous avons vu chaque jour de nouvelles découvertes passionnantes dans le domaine de l'apprentissage automatique.
Cependant, la loi n'est pas aussi rapide. Alors que les entreprises et les gouvernements continuent de tirer parti de l'IA pour maximiser les profits ou prendre le contrôle des citoyens, nous devons trouver des moyens de faire pression pour la transparence et l'équité dans l'utilisation de ces algorithmes.
Pensez-vous que l'IA véritablement éthique est possible ?
Soyez sympa! Laissez un commentaire