SVHS : Une IA peut-elle être bienveillante ou s'agit-il d'une projection humaine sur une technologie qui, par définition, est amorale ? Jean-Gabriel Ganascia : La notion de bienveillance implique une attention d'une personne portée à autrui. Dans ce cas, l'IA ne peut pas être bienveillante, mais elle peut être utilisée avec bienveillance ou malveillance, pour soutenir des démocraties comme des régimes autoritaires. Ces agents sont conçus pour qu'on leur projette des émotions et des intentions, mais il faut garder une distance critique : ce sont des constructions techniques. Laurent Simon : Cela touche à notre capacité humaine à projeter des intentions. Chose que l'on fait à tort et à travers : notre voiture ne démarre pas, on dit qu'elle ne “veut” pas démarrer. C'est une faculté précieuse, mais aussi un danger, notamment avec les grands modèles de langage, ou LLM, qui en jouent. L'amoralité de l'IA est pourtant une évidence : c'est un outil calculatoire. Mais la profondeur de la moralité entre en jeu. Si nous parlons d'une moralité de surface, l'outil peut paraître moral. Les propos de Donald Trump sur les “IA woke” montrent qu'il y a de réels enjeux éthiques et une volonté de reprendre en main les IA dites “alignées”, c'est-à-dire en accord avec les valeurs humaines et exprimant une forme de bienveillance artificielle. Mais qu'est-ce que ça veut dire “être aligné avec nos valeurs” ? SVHS :
Le contenu complet de cet article est réservé aux abonnés. Vous pouvez également acheter Hors-Séries n°322 au format digital. Vous le retrouverez immédiatement dans votre bibliothèque numérique KiosqueMag.
Voir plus