Expliquer l’humain aux robots
Essayez d’imaginer qu’un automate intelligent ait pour mission de vous tuer. Il a en mémoire tous vos mots de passe, accède à l’ensemble de vos données. Equipé de reconnaissance faciale, il vous identifiera où que vous alliez, alors que vous ignorerez à quoi il ressemble. Ce cauchemar appartient au domaine du possible. Les drones tueurs ne sont plus de la science-fiction : ils figurent dans la panoplie des armées actuelles. Hostiles ou amicaux, les robots deviennent constamment plus nombreux, plus autonomes et plus puissants. Dans certaines maisons de retraite, des cousins de Buddy, Nao ou Pepper, les stars de la firme Aldebaran Robotics, tiennent déjà compagnie à des personnes dépendantes. Dans les usines, les automates contrôlent une majeure partie de la production. Ils sont également présents dans des écoles, des hôpitaux, des restaurants, des bibliothèques…
Trente et un millions de robots, toutes catégories confondues, devraient être commercialisés entre 2014 et 2017, selon le Syndicat de la robotique. Sur la scène publique, leur présence est ancienne et forte : après Deep Blue, vainqueur de Kasparov aux échecs il y a vingt ans, Watson a remporté Jeopardy en 2011, AlphaGo a humilié un maître de jeu de go le mois dernier. Plus récemment encore, Tay, robot conversationnel de Google, est devenu sur Twitter antisémite et xénophobe en quelques heures, montrant ainsi qu’il intégrait vite l’air du temps. Pourtant, il n’y a pas nécessairement lieu de s’affoler. En 1940, Isaac Asimov, l’écrivain de science-fiction qui a exploré ces questions avant tout le monde expliquait combien un robot conçu pour garder un jeune enfant était infiniment plus fiable qu’une nounou humaine.
Cela n’empêche pas l’émergence de quantité de questions nouvelles, suscitant des kyrielles de travaux, spéculations, hypothèses et modélisations. Une grande partie de ces recherches concerne nos relations avec ces machines intelligentes, humanoïdes ou non, l’empathie qu’elles peuvent susciter, comme l’a montré notamment Serge Tisseron, et leurs statuts juridique, moral et philosophique (1). Car ce ne sont plus des objets inertes, sans être à proprement parler des personnes. Ce ne sont évidemment pas des vivants pourvus de sensibilité, mais elles peuvent décider, possèdent une certaine forme d’autonomie et d’indépendance. Elaborer leur statut juridique et moral est nécessaire aussi pour des raisons pratiques. Quand un robot cause un accident, la responsabilité incombe-t-elle à son concepteur, à son propriétaire ?
Un autre aspect, moins souvent mis en lumière, importe peut-être plus. Il concerne tout ce qu’il faut inculquer aux intelligences artificielles du fonctionnement des humains pour éviter des malentendus, voire des catastrophes. Et, là, rien n’est si simple. Car les machines ne savent absolument pas ce qu’est effectivement une sensation corporelle, ni le fait d’avoir conscience, d’éprouver des sentiments, des désirs, des volontés. Tout ce qui fait notre existence charnelle (avoir chaud, froid, faim, sommeil…) et psychique (rêver, imaginer, espérer, craindre, désirer…) leur demeure étranger. Le simple fait de se tromper, universellement humain, reste opaque pour une intelligence artificielle. Dès lors que les interactions entre elles et nous deviennent plus intenses et plus vitales, cette différence des mondes est un défi.
Il faut donc expliquer l’humain aux robots. Il s’agit d’inventer les moyens de leur faire intégrer nos fragilités, nos erreurs, nos normes, de leur apprendre les rudiments de notre sensibilité. Ce travail, déjà engagé, n’est sans doute pas assez développé. Il se révèle d’autant plus complexe que nos normes éthiques sont fréquemment en conflit les unes avec les autres : la plupart des décisions concrètes supposent de privilégier un principe, d’en minorer un autre. Sans oublier la part d’irrationnel, la prise de risque, l’audace que requiert souvent une action urgente. « Toute décision est une folie », disait Kierkegaard, exprimant ainsi qu’elle ne se réduit jamais au pur calcul des probabilités.
Apprendre l’humain aux robots, ce serait donc leur enseigner l’approximation, les cotes mal taillées, les nuances, les compromis, mais aussi le coup de dés, la part d’irrationnel, la touche « random »… Ce qui est en cours. Mais il reste du pain sur la planche des ingénieurs, si l’on ose utiliser cette image du vieux monde.
Roger-Pol Droit est agrégé de philosophie.(1) Sur ces questions, voir notamment Jean-Michel Besnier, « L’Homme simplifié » (Fayard, 2012), Serge Tisseron, « Le Jour où mon robot m’aimera » (Albin Michel, 2015) et le tout récent livre collectif « En compagnie des robots » (Premier Parallèle, 130 pages, 12 euros).