LONDRES/DJEDDAH : La dernière création d’Elon Musk, un robot humanoïde «amical» dévoilé lors de la journée de l’intelligence artificielle (IA) organisée par la société Tesla la semaine dernière, a suscité une frénésie sur les réseaux sociaux.
Le robot divise fans et critiques. Alors que certains sont enthousiasmés par les avancées technologiques, d’autres semblent hantés par les représentations dystopiques d’Hollywood d'un monde contrôlé par les machines.
Ce dernier scénario ne se termine jamais particulièrement sur une bonne note pour l’humanité. Le ton sinistre emprunté par Musk et ses tentatives d’assurer que la conception en fait un robot relativement lent et faible duquel «on peut fuir» ne font pas grand-chose pour apaiser les véritables craintes quant à l’impact des progrès de l’IA sur l’humanité.
Le co-fondateur de YouTube, Chad Hurley, se montre sceptique, et estime que l’annonce n’est rien de plus qu’une stratégie de marketing astucieuse de la part du PDG de Tesla. «Hmm, le pilote automatique ne fonctionne toujours pas... comment pouvons-nous faire monter les actions ? Avec les robots !», ironise-t-il dans un tweet.
La référence au pilote automatique fait référence aux derniers problèmes des systèmes de conduite partiellement automatisés de Tesla dans ses voitures. Les autorités américaines ont par ailleurs ouvert une enquête sur des centaines de milliers de véhicules Tesla.
Chris Holmes, chercheur scientifique et auteur, a fait part sur Twitter de ses réticences à l’égard du robot, baptisé Optimus. «Il me semble que si vous devez mettre un avertissement “il ne vous tuera pas” sur l’annonce de votre prochain grand produit, vous commencez déjà du mauvais pied».
M. Musk lui-même a, par le passé, mis en garde contre la prolifération de l’IA et son adoption par la société en général, et reviennent selon lui à « invoquer le diable».
Mus estime en effet que le rythme de progression de l’IA pose un «risque existentiel fondamental». Ces propos ne sont pas sans rappeler ceux de Stephen Hawking. Le célèbre physicien anglais redoutait que l’IA ne «mette fin à l’humanité», et pensait que cette nouvelle forme de vie surpasserait les humains et détruirait la civilisation.
Le Dr Mishaal Al-Harbi est le chef des opérations de la société saoudienne Research Products Development, l’une des principales entreprises de robotique du Royaume et une agence de soutien au développement des activités de recherche et développement et à la commercialisation de la recherche universitaire. Il estime que c’est à la société et aux décideurs politiques de déterminer les lois qui régissent les robots humanoïdes.
Les chercheurs doivent trouver des moyens de codifier ces lois dans l’IA qui régit le comportement des robots et leurs interactions avec les humains, ajoute-t-il.
«En ce qui concerne l’humanoïde, je me souviens du célèbre écrivain de science-fiction Isaac Asimov et des trois lois de la robotique qu’il a énoncées dans sa nouvelle de 1942, Cercle vicieux (The Runaround). Ces trois lois déterminent essentiellement les règles que doit suivre un robot pour accomplir ses tâches ou ses responsabilités sans nuire aux humains», explique-t-il à Arab News.
La première loi suppose que le «robot ne peut nuire à un être humain ni, par son inaction, laisser un humain exposé au danger».
«Un robot doit obéir aux ordres donnés par les humains, sauf si de tels ordres sont en contradiction avec la première Loi. La dernière loi stipule qu’un robot doit protéger sa propre existence en autant que cette protection ne soit pas en contradiction avec la première et/ou la deuxième Loi. Cette question a été débattue dans les années 1940, et elle constitue toujours une base pour déterminer le degré de liberté que nous devons accorder aux robots et à l’IA», précise-t-il.
L’objectif premier d’Optimus serait d’éliminer les tâches dangereuses, répétitives et ennuyeuses, et il se veut «amical, bien sûr». Il mesurera 173 cm et pèsera 57 kg.
Selon M. Musk, la machine serait délibérément assez faible pour que la plupart des humains soient capable de la maîtriser si nécessaire. «On ne sait jamais», lance M. Musk lors de l’événement.
Le Dr Al-Harbi explique qu’à l’avenir, les Tesla bots pourraient accomplir des tâches jugées trop dangereuses ou risquées pour les humains. Il cite par exemple les opérations de recherche et de sauvetage, ou le travail dans des environnements extrêmement hostiles, telles que les mines.
«Il existe de nombreux domaines dans lesquels le robot peut faire beaucoup de bien. Mais le défi, et c’est un aspect qui nécessite également des études, notamment dans le domaine de l’IA, est de déterminer comment permettre aux humanoïdes ou aux robots de mener leurs responsabilités tout en respectant des paramètres et des directives, afin d’éviter qu’ils ne causent des dommages».
«Il ne s’agit pas seulement d’une question technique, mais aussi d’une question philosophique qui devrait sans doute être abordée de manière indépendante dans le cadre de la recherche sur l’IA: comment activer cette capacité pour s’assurer que le robot ne nuise pas à autrui. Je ne vois pas cet élément comme une menace, mais comme un défi. Tant que les gens travaillent sur ce défi, je pense que beaucoup de bonnes choses peuvent en découler», a-t-il ajouté.
L’annonce, comme on pouvait s’y attendre, provoque une vague de mèmes sur les réseaux sociaux. Le site d’informations technologiques TheVerge.com va plus loin et suggère que l’annonce n’est rien d’autre qu’une mise en scène de la part du chef extravagant de Tesla.
TheVerge.com juge l’annonce et la performance d’un danseur déguisé en robot «une farce bizarre et brillante», destinée à se moquer des critiques de Tesla et à créer davantage de publicité pour l’entreprise.
Au plus tôt, il faudra attendre l’année prochaine pour savoir si M. Musk était sérieux ou non au sujet du Tesla bot, sachant que l’entrepreneur a déclaré de manière assez évasive qu’il croit «probablement avoir un prototype».
Mais, même s’il ne l’est pas, d’autres personnes travailleront sur des robots humanoïdes, et les lois que M. Al-Harbi juge nécessaires devront s’appliquer à eux aussi.
Ce texte est la traduction d’un article paru sur Arabnews.com