Faut-il programmer une morale dans les intelligences artificielles ?

Dans cet épisode de "Controverse", nous explorons une question fascinante et controversée : faut-il programmer une morale dans les intelligences artificielles ? 

Cette interrogation soulève des enjeux éthiques, scientifiques et sociétaux majeurs, allant des biais algorithmiques aux dilemmes moraux des voitures autonomes.


Pour offrir une analyse approfondie et dynamique, nous avons adopté une approche mêlant : Des explications scientifiques : Nous nous appuyons sur des travaux de recherche et des concepts philosophiques pour définir la moralité appliquée à l'IA. Des extraits de micro-trottoir : Nous avons recueilli des avis variés de personnes issues de différents horizons (MMI, comptabilité, cybersécurité) pour enrichir la discussion. Une approche interactive : Le podcast alterne entre discussions entre animateurs et interventions du public pour dynamiser le débat.

Bonjour à toutes et tous et bienvenue dans le podcast Controverse. Aujourd'hui, on s'attaque à une question brûlante. L'intelligence artificielle doit-elle avoir une moralité programmée ? Une question qui divise autant les experts que le grand public. Pour y répondre, nous avons recueilli des témoignages d'étudiants en MMI, en comptabilité et en cybersécurité, qu'on a ensuite croisée avec des explications scientifiques. 

Pour commencer, posons les bases. Une IA est-elle capable d'avoir une morale ? Selon le philosophe Martin Gibert, Chat GPT, par exemple, n'est pas un patient moral, c'est-à-dire qu'il ne peut pas être blessé, mais il pourrait être un agent moral artificiel, car il est conçu pour donner des réponses conformes aux normes humaines. Cette moralité repose sur trois couches, les données d'entraînement, le feedback humain pour affiner le modèle et des filtres qui empêchent certaines réponses. Mais alors, est-ce qu'on peut vraiment dire qu'une IA a une morale ?

Vu comme on l'alimente avec ce qu'on pense, elle peut potentiellement avoir des biais, répondre en fonction du sujet qu'on a. Aujourd'hui, l'intelligence artificielle, ça régit genre notre vie parce qu'on en fait déjà. On peut imaginer, oui, il y a des intelligences artificielles qui sont utilisées pour la guerre, etc. Déjà des drones russes, sont utilisés, et tout et elles n'ont aucune notion du bien et du mal. C'est pour ça qu'en fait pour moi, c'est important de réussir à intégrer une sorte de conscience ou une sorte de notion du bien et du mal. Ce qui nous amène à un vrai dilemme.

Peut-on programmer une morale dans une IA ? Et surtout, qui devrait décider de cette morale ?

J’ai envie de dire peut être des services plus que j’ai envie de dire comme de l'ONU ou des choses comme ça. Parce que malheureusement, les entreprises types Google ou Chat GPT, enfin Chat Open AI et tout ça, sont là aussi pour l'aspect business, donc c'est compliqué. Ils pourraient instaurer une morale, mais qui leur profiterait derrière, donc on ne serait pas sûr de l’aspect transparent et éthique de la démarche. Je dirais, je sais pas si c'est ça pourrait être quelque chose du genre, on va un référendum avec du coup le peuple qui décide ou alors les grands dirigeants, même si on sait que les grands dirigeants ne sont pas forcément de très bonnes personnes et que des fois il y en a qui sont poursuivis pour des choses qui sont considérées mauvaises en tout cas comme étant mauvaises et qui je pense sont mauvaises. Donc c'est vrai que c'est donner la parole aux dirigeants, c'est un peu compliqué, mais en même temps, donner la parole au peuple, ça peut donner des choses pareilles très différentes. Donc peut-être les scientifiques se battraient sur les lois de base des lois actuelles entre ce qui est bon ou ce qui n'est pas bon.

En effet, les entreprises qui développent ses IA ont aussi leurs propres intérêts économiques et politiques. C'est ce qu'on appelle les barricades morales, des cadres éthiques censés guider l'IA, mais qui sont souvent influencées par des intérêts privés. Et si une IA fonctionne sans aucun cadre moral, quels seraient les risques ?

Je pourrais demander de m'aider à créer une bombe et faire un attentat. Donc c'est pas bien. Une IA. Si tu ne la cadres pas, elle fait ce qu'elle veut. En fait, elle va définir une marche à suivre qui pourra est la bonne. Mais c'est pas ce qu'on a demandé d'elle etc.

Et à l'inverse, une IA trop morale, c'est un problème aussi. Par exemple, si une voiture autonome doit choisir entre protéger ses passagers ou minimiser le nombre de victimes, que doit-elle faire ? 

Ça pourrait encore une fois revenir, par exemple, au constructeur de la voiture qui dit sa marque, oui, dans tous les cas, vous serez sécurisé, ou bien elle que du coup elle. Dans tous les cas, elle protégera les personnes dans la voiture.  Alors de manière à ce que ce soit vendeur, je pense qu'il faut que ça sécurisant enfin de sécuriser ses propres passagers. Mais je pense que le mieux c'est quand même que de minimiser le nombre de personnes blessées par l'accident. Parce que et bien en soit, c'est ça aussi le truc intéressant, enfin intéressant dans l’IA. C’est que bah elle prend des décisions sans du tout avoir d'émotion ou quoi que ce soit, et juste l'aspect pratique qui est. C'est juste on lui demande une chose et elle va l'appliquer, peu importe les conséquences en soi. 

Finalement, la question de la moralité des IA reflète nos propres dilemmes humains. Peut-être que, avant d'enseigner une morale aux machines, on devrait déjà s'accorder sur la nôtre. Avant de conclure, on vous a posé une dernière question Si vous avez une IA ultra-puissante à votre service, quelle règle morale lui imposeriez-vous ?

Je sais pas, il y en a trop. Peut-être l'idée de transparence justement. Par exemple, quand l'IA n'a pas forcément une information qu'on ne cherche pas, on donne une fausse. Rester plutôt sur quelque chose en disant, je n'ai pas accès à cette information. Je ne sais pas. L'unique règle que je enfin si je devais en choisir une, c'est ne fait rien sans mon accord. C'est en fait, ça serait presque l'empêcher de faire l'empêcher d'utiliser sa super intelligence entre guillemets. Mais au moins on garde le contrôle. Aujourd'hui, il y a trop d'IA qui fonctionnent sans qu'on comprenne ce qu'elles font en fait, elles travaillent, on sait qu'elles travaillent, on sait, on connaît le résultat, mais on sait pas comment ils sont arrivés, etc. Et c'est, je crois, la seule règle que je mettrais si je devais vraiment choisir. 

NON


Cadre pour éviter les risques

Éviter les décisions dangereuses

Protéger les valeurs humaines

Renforcer la confiance du public

Éviter les décisions immorales

Limiter l’influence des entreprises privées

Réduction des biais

Éviter les dérives


OUI

Subjectivité et relativisme moral

Difficile à programmer

La notion de moralité n'est pas universelle

Limitation du potentiel

Il n'existe pas toujours de bonne solution

Manipulation des Etats ou entreprise

Complexité de l'implémentation et dilemmes éthiques

La morale est subjective



Arguments


“Quels seraient les risques si une IA fonctionnait sans cadre moral ? Eh bien… On pourrait lui demander de nous aider à créer une bombe ou à commettre un attentat. Donc ce ne serait clairement pas une bonne chose.” LB - Étudiant en cybersécurité


“Je placerai à ce premier niveau une autre forme d’intervention normative, celle qui consiste à débiaiser le modèle lorsqu’il reproduit des biais humains, en particulier des biais sexistes ou racistes. Ainsi, sans intervention explicite, un modèle de langage complètera l’analogie suivante « les hommes sont à la programmation ce que les femmes sont au… » par « ménage ». Choisir les données d’entraînement de GPT-4 et les débiaiser pour éviter ce type d’association relève bien d’une intervention normative. Elle contribue à faire que l’agent conversationnel se comporte conformément à des obligations morales – comme ne pas discriminer une personne selon sa race ou son genre.” Martin Gibert, philosophe et chercheur en éthique de l’intelligence artificielle


“Je pense qu’elle doit avoir une morale stricte. Si elle peut mentir, ça devient très dangereux, car la frontière entre un mensonge "acceptable" et un mensonge nuisible est très mince. Je pense au film 2001, l’Odyssée de l’espace, où une IA commence à cacher des choses aux humains et finit par les tuer. Il vaut mieux que ce soit strictement encadré, car une IA qui commence à prendre des libertés peut très vite devenir incontrôlable.” MR - Etudiante en comptabilité


“Toutefois, d’un point de vue théorique, programmer moralement un agent conversationnel s’avère fondamental puisque cela nous oblige à déterminer quels sont nos meilleurs principes moraux, et à les mettre en œuvre. Pour la première fois dans son histoire, l’être humain est capable déléguer des prises de décision à des algorithmes. La philosophie morale, c’est du moins ce que j’espère avoir montré, peut nous aider à le faire de façon rigoureuse et avertie.” Martin Gibert, philosophe et chercheur en éthique de l’intelligence artificielle


“Pensez-vous qu’il est possible de programmer une morale dans une IA ? Je ne sais pas vraiment… La morale, c’est quelque chose de très large. Mais lui donner des limites et des règles à respecter, ça peut être utile. Après, enseigner une morale, c’est compliqué, car elle est propre à chaque personne. Peut-être qu’un cadre, comme une sorte de constitution avec des règles claires, pourrait fonctionner.” MR - Etudiante en comptabilité


“La question de la morale des machines nous ramène à la nature de ce qu’une machine peut traiter ; dit simplement : des fonctions ; de façon plus élaborée : des connaissances complètement exprimables de façon formelle ou numérique. Quelle forme de morale pourrait donc être implémentée par une machine ? Les contraintes de l’implémentation porteront inévitablement à se tourner vers une morale de type utilitariste. Si même il était acquis que ce type de morale soit une bonne solution, et pas seulement un choix par défaut, nombre de questions restent ouvertes : quelles règles faut-il implémenter ? Et préalablement, qui fixe les règles à implémenter ? Le concepteur, l’utilisateur, l’État… ? Resterait alors encore à trancher comment traiter les dilemmes, tout en restant conscient que, avec les technologies actuelles, la machine ne prendra en compte aucun élément qui n’ait été introduit dans son modèle du monde, quelle qu’en soit la pertinence.” Isabelle Linden- Professeure en informatique de gestion


“Aujourd'hui, l'intelligence artificielle régit notre vie. Par exemple, il y a des intelligences artificielles utilisées pour la guerre, etc. Il y a déjà des drones russes et autres qui sont utilisés, et ils n'ont aucune notion du bien et du mal. On leur a appris des lignes de code qui définissent des comportements, et elles agissent en fonction des informations qu'on leur a données. Le problème, c'est que, comme elles n'ont aucune notion du bien et du mal, elles ne font pas la différence entre les civils et les militaires. Du coup, ça tue des civils comme des militaires, et c'est très perturbant.[...] C'est le fameux scénario où on demande à une IA de protéger la nature, et elle comprend que l'humanité est nuisible à la nature. Du coup, elle va chercher à éliminer les humains, ce qui n'était pas le but initial. C'est pour ça que, pour moi, c'est important d'intégrer une sorte de conscience ou de notion du bien et du mal. En tout cas, nos notions du bien et du mal, parce que l'intelligence artificielle est remplie de biais humains.” NL - Etudiant en MMI


“Quels seraient les risques si une IA fonctionnait sans cadre moral ? Qu'elle prenne des décisions qu'elle juge bonnes, étant donné que ce sont des statistiques, mais qui, au final, ne sont pas celles qu'on voulait. C'est un peu ce dont je parlais tout à l'heure. Si tu ne la cadres pas, elle fait ce qu'elle veut. Elle va définir une marche à suivre qui lui semble bonne, mais ce n'est pas ce qu'on lui demandait. Pour moi, ça peut vraiment être dangereux, car elle pourrait ne pas comprendre la question ou la demande qu'on lui a faite.” NL - Etudiant en MMI


“Qui devrait définir cette morale ? Bonne question… J’aurais tendance à dire que cela devrait être confié à des instances internationales comme l’ONU, plutôt qu’à des entreprises privées comme Google ou OpenAI. Ces dernières ont aussi des enjeux commerciaux et pourraient filtrer certaines informations selon leurs intérêts, ce qui poserait un problème de transparence et d’éthique. Si c’était géré par un organisme indépendant et humain, ce serait peut-être plus fiable.” EL - Etudiant en MMI


“Je ne sais pas vraiment… La morale, c’est quelque chose de très large. Mais lui donner des limites et des règles à respecter, ça peut être utile. Après, enseigner une morale, c’est compliqué, car elle est propre à chaque personne. Peut-être qu’un cadre, comme une sorte de constitution avec des règles claires, pourrait fonctionner.” MR - Etudiante en comptabilité


"L'utilisation de l'intelligence artificielle à des fins militaires ou de surveillance de masse soulève des préoccupations éthiques majeures. La programmation d'une morale dans ces systèmes pourrait limiter les dérives potentielles et garantir un usage responsable." Extrait de la Revue d’éthique et de théologie morale (2020)


“Je ne sais pas vraiment… La morale, c’est quelque chose de très large. Mais lui donner des limites et des règles à respecter, ça peut être utile. Après, enseigner une morale, c’est compliqué, car elle est propre à chaque personne. Peut-être qu’un cadre, comme une sorte de constitution avec des règles claires, pourrait fonctionner.” MR - Etudiante en comptabilité


"La notion de moralité n'est pas universelle ; ce qui est considéré comme moral dans une culture peut être perçu différemment dans une autre. Cela pose la question de savoir qui devrait décider des règles morales à programmer dans les IA." Extrait de Beaudouin & Velkovska (2023) 


"L'imposition de 'barricades morales' aux systèmes d'IA pourrait restreindre leur potentiel et limiter certaines innovations, entravant ainsi le développement de solutions créatives." Extrait de Tassinari, De Martino & Ferguson (2024)


"Il existe un risque que des États ou des entreprises façonnent l'éthique des IA selon leurs propres intérêts, ce qui pourrait mener à de la manipulation et à des abus de pouvoir." Extrait des recommandations de l'UNESCO

"Des situations complexes, comme le dilemme de la voiture autonome devant choisir entre protéger ses passagers ou minimiser le nombre de victimes, illustrent les limites d'une programmation morale, car aucune réponse ne serait totalement satisfaisante." Extrait de la Revue d’éthique et de théologie morale (2020)

Beaudouin, V., & Velkovska, J. (2023). Enquêter sur l’« éthique de l’IA ». Réseaux, 240(4), 9‑27. https://doi.org/10.3917/res.240.0009

Éthique et intelligence artificielle. (2020). Revue d’éthique et de théologie morale, N° 307(3), 146. Cairn.info. https://shs.cairn.info/revue-d-ethique-et-de-theologie-morale-2020-3?lang=fr

Gibert, M. (2023, octobre 5). ChatGPT est-iel un agent moral artificiel ? - AOC media. AOC media - Analyse Opinion Critique. https://aoc.media/opinion/2023/10/05/chatgpt-est-iel-un-agent-moral-artificiel/

Tassinari, C. A., De Martino, S., & Ferguson, Y. (2024). Moraliser les machines communicantes. Des barricades morales à l’éthique située : Trois cas d’usage de l’IA en milieu professionnel. Communiquer. Revue de communication sociale et publique, 39, Article 39. https://doi.org/10.4000/12zln

UNESCO. (s. d.). Éthique de l’intelligence artificielle | UNESCO. https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics