« Science sans conscience n’est que ruine de l’âme », écrivait Rabelais dans Gargantua. La masterclass de rentrée sur l’IA proposée aux étudiants de l’université de technologie de Belfort-Montbéliard (UTBM), les jeudi 4 et vendredi 5 septembre, a tenu compte de cette formule : elle incluait une table ronde leur proposant de tenter de répondre à la question : « Une IA éthique, équitable et responsable est-elle possible ? » Elle était animée par Ghislain Montavon, directeur de l’UTBM, avec comme intervenants Mathieu Triclot, philosophe et maitre de conférence à l’UTBM, Florent Petit, physicien et enseignant à l’UTBM, et Gabriel Frossard, doctorant à l’UTBM. Vaste question entre philosophie et technologie, qui implique de s’interroger sur l’éthique elle-même, l’objectivité, le droit, l’environnement, les enjeux sociétaux, etc. Voici un aperçu non exhaustif des questions abordées.
L’intelligence artificielle (IA) peut-elle être objective ?
Lorsqu’on interroge une IA, notamment pour une aide à la décision, on espère une réponse fiable, donc objective. Espérance peut-être un peu naïve. En tant que philosophe, Mathieu Triclot a rappelé que l’objectivité a posé question de tous temps et qu’une décision humaine comporte « quelque chose d’insondable ». Pour le physicien Florent Petit, la science s’est depuis longtemps écartée de l’illusion de l’objectivité. Se pose également la question de l’intention première, de la motivation sous-jacente (donc des biais humains) de celui qui a créé l’IA et qui a écrit ses algorithmes.
Dès lors se dégage la piste de prendre en compte l’éthique dès la conception d’une IA an associant des compétences en informatique, design, mais aussi philosophie, droit, environnement. Ce qu’un des étudiants qui assistait à cette table ronde a résumé par cette question : « Doit-on soi-même être éthique avant l’IA ? » Ce qui peut conduire à un principe qui consisterait à s’affranchir de l’IA lors de la conceptualisation.
Qui porte la responsabilité des biais dans les systèmes de l’IA ?
Qui de l’utilisateur ou du concepteur doit porter la responsabilité des biais, ou plus généralement des défauts de l’IA : son concepteur ou celui qui l’utilise sans discernement ? Et pour arbitrer cette question qui ne manquera pas de faire débat, qui est habiliter à trancher : les tribunaux, le politique, l’histoire ? La question s’est récemment posée lorsque des parents ont accusé une IA d’avoir incité leur enfant à se suicider.
Des questions similaires se posent sur les réseaux sociaux. Plus globalement, la question est de savoir qui endosse la responsabilité des conséquences de ces outils sur la société, avec en filigrane leur fiabilité et leurs effets sur l’environnement.
L’IA fragilise-t-elle certaines professions ?
Une des conséquences sur la société porte sur l’emploi. Une vision optimiste estime que l’IA engendrera plus de nouveau emplois qu’elle n’en fera disparaitre. D’autres avancent l’hypothèse inverse. Certaines études montrent que l’IA va transformer des professions jusqu’alors épargnées par l’automatisation, comme la radiologie, le journalisme, la finance, l’ingénierie. Un chiffre pose particulièrement question aux étudiants : 50% des emplois d’ingénieurs débutants seraient appelés à disparaitre.
A contrario, d’autres études affirment qu’il faudrait former 20% d’étudiants en plus par an. De même, une étude pronostiquait à la naissance de l’informatique la disparition de 250 métiers ; un seul a effectivement disparu. En revanche, de très nombreux métiers ont fortement évolué. La maîtrise de l’IA, à l’instar de l’informatique, pourrait donc devenir un enjeu important de la formation.
La massification de l’utilisation de l’IA est-elle compatible avec les enjeux environnementaux ?
L’intelligence artificielle est très consommatrice en ressources foncières, en eau et en électricité. Par exemple, les plus gros datacenters consomment en eau l’équivalent d’une ville de 50 000 habitants. Certains États des Etats-Unis, pour répondre aux besoin en énergie des datacenters, ont recours aux centrales à charbon, car plus faciles à mettre en œuvre que des centrales émettant moins de C02. Pour arbitrer entre développement de l’IA et environnement, la théorie de l’attachement a été avancée : localement, à quoi est-ce que je tiens, quels sont les usages prioritaires ?
Bref, la table ronde a permis d’aborder pendant la masterclass de deux jours la question épineuse de l’éthique. Une question qui n’est pas nouvelle au sein de l’UTBM, qui s’est déjà doté d’une charte de l’IA et d’un guide de l’usage de l’IA au sein de l’UTBM, qui, par exemple, s’interdit l’usage de l’IA dans la phase de recrutement de ses étudiants.
