L'IA doit-elle avoir une "moralité" programmée ?
NON
Cadre pour éviter les risques
Éviter les décisions dangereuses
Protéger les valeurs humaines
Renforcer la confiance du public
Éviter les décisions immorales
Limiter l’influence des entreprises privées
Réduction des biais
Éviter les dérives
OUI
Subjectivité et relativisme moral
Difficile à programmer
La notion de moralité n'est pas universelle
Limitation du potentiel
Il n'existe pas toujours de bonne solution
Manipulation des Etats ou entreprise
Complexité de l'implémentation et dilemmes éthiques
La morale est subjective
Arguments
“Quels seraient les risques si une IA fonctionnait sans cadre moral ? Eh bien… On pourrait lui demander de nous aider à créer une bombe ou à commettre un attentat. Donc ce ne serait clairement pas une bonne chose.” LB - Étudiant en cybersécurité
“Je placerai à ce premier niveau une autre forme d’intervention normative, celle qui consiste à débiaiser le modèle lorsqu’il reproduit des biais humains, en particulier des biais sexistes ou racistes. Ainsi, sans intervention explicite, un modèle de langage complètera l’analogie suivante « les hommes sont à la programmation ce que les femmes sont au… » par « ménage ». Choisir les données d’entraînement de GPT-4 et les débiaiser pour éviter ce type d’association relève bien d’une intervention normative. Elle contribue à faire que l’agent conversationnel se comporte conformément à des obligations morales – comme ne pas discriminer une personne selon sa race ou son genre.” Martin Gibert, philosophe et chercheur en éthique de l’intelligence artificielle
“Je pense qu’elle doit avoir une morale stricte. Si elle peut mentir, ça devient très dangereux, car la frontière entre un mensonge "acceptable" et un mensonge nuisible est très mince. Je pense au film 2001, l’Odyssée de l’espace, où une IA commence à cacher des choses aux humains et finit par les tuer. Il vaut mieux que ce soit strictement encadré, car une IA qui commence à prendre des libertés peut très vite devenir incontrôlable.” MR - Etudiante en comptabilité
“Toutefois, d’un point de vue théorique, programmer moralement un agent conversationnel s’avère fondamental puisque cela nous oblige à déterminer quels sont nos meilleurs principes moraux, et à les mettre en œuvre. Pour la première fois dans son histoire, l’être humain est capable déléguer des prises de décision à des algorithmes. La philosophie morale, c’est du moins ce que j’espère avoir montré, peut nous aider à le faire de façon rigoureuse et avertie.” Martin Gibert, philosophe et chercheur en éthique de l’intelligence artificielle
“Pensez-vous qu’il est possible de programmer une morale dans une IA ? Je ne sais pas vraiment… La morale, c’est quelque chose de très large. Mais lui donner des limites et des règles à respecter, ça peut être utile. Après, enseigner une morale, c’est compliqué, car elle est propre à chaque personne. Peut-être qu’un cadre, comme une sorte de constitution avec des règles claires, pourrait fonctionner.” MR - Etudiante en comptabilité
“La question de la morale des machines nous ramène à la nature de ce qu’une machine peut traiter ; dit simplement : des fonctions ; de façon plus élaborée : des connaissances complètement exprimables de façon formelle ou numérique. Quelle forme de morale pourrait donc être implémentée par une machine ? Les contraintes de l’implémentation porteront inévitablement à se tourner vers une morale de type utilitariste. Si même il était acquis que ce type de morale soit une bonne solution, et pas seulement un choix par défaut, nombre de questions restent ouvertes : quelles règles faut-il implémenter ? Et préalablement, qui fixe les règles à implémenter ? Le concepteur, l’utilisateur, l’État… ? Resterait alors encore à trancher comment traiter les dilemmes, tout en restant conscient que, avec les technologies actuelles, la machine ne prendra en compte aucun élément qui n’ait été introduit dans son modèle du monde, quelle qu’en soit la pertinence.” Isabelle Linden- Professeure en informatique de gestion
“Aujourd'hui, l'intelligence artificielle régit notre vie. Par exemple, il y a des intelligences artificielles utilisées pour la guerre, etc. Il y a déjà des drones russes et autres qui sont utilisés, et ils n'ont aucune notion du bien et du mal. On leur a appris des lignes de code qui définissent des comportements, et elles agissent en fonction des informations qu'on leur a données. Le problème, c'est que, comme elles n'ont aucune notion du bien et du mal, elles ne font pas la différence entre les civils et les militaires. Du coup, ça tue des civils comme des militaires, et c'est très perturbant.[...] C'est le fameux scénario où on demande à une IA de protéger la nature, et elle comprend que l'humanité est nuisible à la nature. Du coup, elle va chercher à éliminer les humains, ce qui n'était pas le but initial. C'est pour ça que, pour moi, c'est important d'intégrer une sorte de conscience ou de notion du bien et du mal. En tout cas, nos notions du bien et du mal, parce que l'intelligence artificielle est remplie de biais humains.” NL - Etudiant en MMI
“Quels seraient les risques si une IA fonctionnait sans cadre moral ? Qu'elle prenne des décisions qu'elle juge bonnes, étant donné que ce sont des statistiques, mais qui, au final, ne sont pas celles qu'on voulait. C'est un peu ce dont je parlais tout à l'heure. Si tu ne la cadres pas, elle fait ce qu'elle veut. Elle va définir une marche à suivre qui lui semble bonne, mais ce n'est pas ce qu'on lui demandait. Pour moi, ça peut vraiment être dangereux, car elle pourrait ne pas comprendre la question ou la demande qu'on lui a faite.” NL - Etudiant en MMI
“Qui devrait définir cette morale ? Bonne question… J’aurais tendance à dire que cela devrait être confié à des instances internationales comme l’ONU, plutôt qu’à des entreprises privées comme Google ou OpenAI. Ces dernières ont aussi des enjeux commerciaux et pourraient filtrer certaines informations selon leurs intérêts, ce qui poserait un problème de transparence et d’éthique. Si c’était géré par un organisme indépendant et humain, ce serait peut-être plus fiable.” EL - Etudiant en MMI
“Je ne sais pas vraiment… La morale, c’est quelque chose de très large. Mais lui donner des limites et des règles à respecter, ça peut être utile. Après, enseigner une morale, c’est compliqué, car elle est propre à chaque personne. Peut-être qu’un cadre, comme une sorte de constitution avec des règles claires, pourrait fonctionner.” MR - Etudiante en comptabilité
"L'utilisation de l'intelligence artificielle à des fins militaires ou de surveillance de masse soulève des préoccupations éthiques majeures. La programmation d'une morale dans ces systèmes pourrait limiter les dérives potentielles et garantir un usage responsable." Extrait de la Revue d’éthique et de théologie morale (2020)
“Je ne sais pas vraiment… La morale, c’est quelque chose de très large. Mais lui donner des limites et des règles à respecter, ça peut être utile. Après, enseigner une morale, c’est compliqué, car elle est propre à chaque personne. Peut-être qu’un cadre, comme une sorte de constitution avec des règles claires, pourrait fonctionner.” MR - Etudiante en comptabilité
"La notion de moralité n'est pas universelle ; ce qui est considéré comme moral dans une culture peut être perçu différemment dans une autre. Cela pose la question de savoir qui devrait décider des règles morales à programmer dans les IA." Extrait de Beaudouin & Velkovska (2023)
"L'imposition de 'barricades morales' aux systèmes d'IA pourrait restreindre leur potentiel et limiter certaines innovations, entravant ainsi le développement de solutions créatives." Extrait de Tassinari, De Martino & Ferguson (2024)
"Il existe un risque que des États ou des entreprises façonnent l'éthique des IA selon leurs propres intérêts, ce qui pourrait mener à de la manipulation et à des abus de pouvoir." Extrait des recommandations de l'UNESCO
"Des situations complexes, comme le dilemme de la voiture autonome devant choisir entre protéger ses passagers ou minimiser le nombre de victimes, illustrent les limites d'une programmation morale, car aucune réponse ne serait totalement satisfaisante." Extrait de la Revue d’éthique et de théologie morale (2020)