Trois regards sur une révolution
Daniela Cerqui, anthropologue spécialiste des robots humanoïdes, enseignante à l'université de Lausanne
Daniela Cerqui questionne la finalité de l’IA. Notre société a développé ces nouvelles technologies sur le postulat de l’imperfection humaine sans se poser la question de leur sens.
SCHIZOPHRÉNIE «Pourquoi en arrive-t-on à développer une société dans laquelle on n’a plus besoin de l’humain ? Un des éléments de réponse est que l’on veut tout maîtriser. On veut être l’égal du Créateur en recréant la vie et l’intelligence. Collatéralement à cela, il y a une représentation de l’être humain comme un être faillible. La machine est considérée comme beaucoup plus fiable.
On parle souvent des robots qui volent les emplois aux humains. Quand la Migros annonce récemment la suppression de 300 emplois, elle le justifie par la concurrence des achats sur internet. Or le groupe a été le premier supermarché en ligne. C’est le serpent qui se mord la queue. Il y a quelque chose qui relève de la programmation de la disparition de l’humain.
Le revers de la médaille, c’est que nous nous machinisons. L’humain se perçoit comme une machine imparfaite. Il y a une robotisation symbolique. Aux yeux de l’anthropologue, c’est presque du cannibalisme. Je vois dans les pratiques actuelles d’intégration de technologies dans le corps une manière de s’approprier la force de cette machine que l’on considère comme supérieure. On a pris une direction qui est celle du transhumanisme sans en mesurer l’impact à long terme.»
François Jouen, spécialiste de la cognition humaine et artificielle, directeur d'études à l'EPHE*, Paris
Francois Jouen considère que l’IA n’est pas dangereuse en soi. La question éthique se pose davantage dans ses possibles dérives. L’IA devient alors un défi intellectuel pour l’intelligence humaine.
PHILOSOPHIE «La biotechnologie opère une sorte de réparation de la déficience naturelle. Un malentendant peut ainsi de nouveau entendre. Mais si l’on donne à cette personne une ouïe de chauve-souris, on change de registre. On crée quelque chose qui n’existe pas dans la nature. Entre la renaturation et la dénaturation, la ligne est extrêmement ténue.
Autre exemple. Une étude anglaise a prouvé que l’utilisation du GPS dans une voiture réduirait l’agressivité des couples. En revanche, le GPS rendrait inactif notre hippocampe, la petite zone dans le cerveau fondamentale dans l’orientation spatiale. Quand on a une prothèse externe, on n’a pas besoin d’activer son système interne. Nous sommes en train de changer. Il suffit de voir comment les gamins se débrouillent avec des tablettes tactiles !
Finalement, il faut revenir à la question que posait Kant. L’exercice de la raison ne se réduit pas à la question des sciences – que puis-je connaître ? – mais interroge également la rationalité et la morale – que dois-je faire ? – Cela débouche par exemple sur des questions de droit. Quand une voiture Uber a tué une femme aux USA, c’est la responsabilité civique de la personne à bord qui a été engagée.
Je suis optimiste dans la capacité de notre intelligence à exercer une réflexion philosophique. Je rejoins ici les humanistes du XVIe siècle. Ce qui fait l’homme, c’est sa capacité inventive, et sa capacité à retenir et suspendre sa puissance.»
*Ecole pratique des hautes études
Alberto Bondolfi, éthicien, théologien, professeur honoraire à l'université de Genève
Alberto Bondolfi nous invite à garder les pieds sur terre. Le professeur honoraire à l’université de Genève prône l’engagement de tous pour appréhender le changement scientifique sans peur panique ni idolâtrie.
MACHINE «L’appellation même d’intelligence artificielle n’est pas très heureuse. Elle suggère une sorte de personne cachée, qui pourrait être un robot ou quelque chose d’analogue, avec des capacités intellectuelles supérieures aux nôtres. Ce n’est pas le cas. Il ne faut pas personnifier une réalité qui est une réalité de fait inanimée.
Au fond, c’est le travail d’une machine, une machine à qui l'on a confié des tâches nouvelles et dont les résultats peuvent nous émerveiller. Il n’y a rien qui ne soit pas d’origine non humaine. L’IA n’est ni tombée du ciel ni une réalité magique. Ce phénomène de projection sur la machine n’est pas nouveau. Dans les livres d’enfants, la locomotive à vapeur se mettait déjà à parler !
De même, le scénario d’une machine autonome n’est pas adéquat. Dans l’avion, nous faisons tous confiance au pilotage automatique. Mais les pilotes sont là pour contrôler constamment le système aussi autonome soit-il. La tâche de l’éthicien est de rappeler la différence qu’il y a entre évaluer et calculer. Les machines calculent, l’être humain est le seul à pouvoir évaluer. A la fin, le juge ne se cache pas derrière une machine. L’IA peut lui donner une vérité statistique mais non une vérité morale autour d’un conflit.
En tant que théologien, je participe à une commission d’experts mise en place par l’Etat chargée de réfléchir aux impacts positifs et négatifs de l’IA sur notre vie sociale. C’est ce que l’on appelle la technology assessment. Nous essayons d’impliquer les citoyens sur l’impact de ces révolutions et nous faisons aussi des recommandations. Cette stratégie essaie de diminuer les peurs collectives et d’augmenter la capacité de tous à analyser avec distance émotive et motivation morale pour une meilleure gestion. Par exemple, trouver le juste milieu entre protection et libre accès aux données.
Le train va toujours plus vite mais on ne peut pas le réparer en freinant de façon absolue, il faut le réparer alors qu’il continue à marcher. Et éviter la sortie de rails en freinant ou en accélérant trop vite.»