Search & Find
DiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporama
Accueil
ICube   >   Actualités : [Savoir(s) 47] Une IA peut-elle être éthique ? - P. Collet (éq. CSTB)

[Savoir(s) 47] Une IA peut-elle être éthique ? - P. Collet (éq. CSTB)

déc. 19 2023

© Astrid Knipping

Le dernier numéro N° 47 de décembre de Savoir(s), le magazine d'information de l'Université de Strasbourg, est consacré à l'IA : aux frontières de l’intelligence ?

Ce dernier est consultable en ligne via ce LIEN et en téléchargement ICI. De nombreux chercheurs du laboratoire y sont mis en avant.
Pierre Collet, professeur en informatique à l'université de Strasbourg, donne quelques éléments de réponse à la question : Une IA peut-elle être éthique ? (p31. - article rédigé par J. d. M.).

Une IA peut-elle être éthique ?

Vous êtes au volant de votre voiture sur une route de montagne. Vitesse : 80 km/h. Une courbe vers la droite. À gauche, en contrebas, le torrent ; à droite, la falaise masque la visibilité à la sortie du virage. Et justement à la sortie du virage, là, juste devant vous, un groupe de manifestants, banderoles au vent, barre la route à l’entrée d’un tunnel. Vous n’avez que deux choix : rentrer dans le groupe de manifestants ou foncer sur le parapet. Et moins d’un dixième de seconde pour réagir !

C’est Pierre Collet, professeur des universités en informatique, codirecteur de l’équipe de recherche Systèmes complexes et bio-informatique translationnelle du laboratoire ICube, qui raconte l’histoire. Imaginez maintenant que vous êtes confortablement installé dans une voiture autonome. La situation est exactement la même. Seulement cette fois, la voiture seule est aux commandes. Que va-t-elle décider ? Là où vous auriez effectué un choix instinctif, en un millième de seconde, la voiture va pouvoir faire référence à une base de règles imaginées, réfléchies et validées par le comité d'éthique de la marque de la voiture, avant de prendre sa décision. La décision de la voiture sera donc plus étayée que la vôtre, mais cette décision sera-t-elle plus éthique ?

Vers une IA autonome, explicable et éthique

Nous sommes là au cœur du sujet de recherche de Pierre Collet : imaginer une IA plus autonome, plus explicable et plus éthique. Une IA autonome crée ses propres lois. Une IA explicable utilise un formalisme (une base de règles explicites, par exemple) permettant de comprendre les décisions prises : les raisons pour lesquelles la machine a fait ça ou pas. Pour revenir à l’exemple de notre voiture autonome, elle a aussi pu proposer au comité d’éthique de sa marque de nouvelles règles, qu’elle pourra utiliser si elles ont été validées, et, à la sortie du virage, prendre une décision relevant d’une des règles qu’elle aura elle-même élaborée. On sera bien face à une IA autonome et explicable.

Maintenant, cette décision sera t-elle éthique ? « C’est le nœud du problème », sourit Pierre Collet. L’algorithme peut-il être éthique ? La réponse se complique dès lors qu’on a bien conscience que les règles éthiques varient d’un groupe humain à l’autre. Entre la Russie, la Chine, l’Europe ou les États-Unis, les lois éthiques ne sont pas les mêmes. « Il n’existe pas d’éthique universelle, précise le chercheur. Jusqu’à maintenant, nous avions des objets qui interagissaient entre eux, des animaux humains  ou non humains qui interagissaient entre eux, des animaux, des humains, des objets qui interagissaient entre eux… mais voilà qu’arrive l’IA. C’est une nouvelle "entité autonome mais inanimée" avec laquelle nous devons apprendre à interagir. »

Les données ou les connaissances elles-mêmes ne sont pas « éthiques ». Ce qui est éthique ou pas, c’est la manière dont on les utilise. « Et là, nous rentrons dans un domaine sur lequel les philosophes réfléchissent depuis des millénaires, poursuit Pierre Collet. Si les informaticiens veulent améliorer l’éthique de l’IA, ils doivent faire de la philo. Vous voulez une IA éthique ? Allez voir les philosophes ! »

C’est cette connaissance et cette prise en compte de la philosophie qui fera que les informaticiens, avec les membres du comité d’éthique, auront permis à la voiture autonome, à la sortie du virage, de prendre une décision plus éthique.

J.d. M.

Faites de la philosophie !

Pour Pierre Collet, la clé de l’éthique de l’intelligence artif icielle, c’est la philosophie : « Il existe plein d’éthiques dif férentes : déontologiques, conséquentialistes, utilitaristes, empiriques… Maintenant que nous avons créé des entités potentiellement autonomes qui interagissent avec des humains, il est fondamental qu’elles suivent un modèle éthique, mais malheureusement les personnes dont le métier est de concevoir les IA ne savent pas ce qu’est l’éthique, car elles ne s’intéressent pas à ce qu’elles ne considèrent pas comme étant un domaine technique. »
Les Franco-Allemands ont une éthique fondamentalement différente des Anglo-Saxons. Les Allemands, avec Kant, sont rigoristes ; les Français, avec Alain, sont plus conséquentialistes : ils envisagent davantage les conséquences de leurs actes. Mais pour l’un et l’autre, la bonne action repose sur le désintéressement. Les Anglo-Saxons sont, eux, utilitaristes : il est normal que toute entité autonome agisse par intérêt. Et donc, la question est posée. L’IA doit-elle agir à la manière des rigoristes, des conséquentialistes, des utilitaristes… ? Et Pierre Collet de conclure : « Sans avoir étudié la philosophie, nous réinventons la roue en nous privant de siècles de réflexions fondamentales sur le sujet. »

Portrait de Pierre Collet

À la une

Le dépôt des candidatures pour les postes d’enseignants-chercheur est ouvert. Les offres sont...

Flux RSS

Flux RSS