WASHINGTON: La Maison Blanche a dévoilé lundi des règles et principes censés assurer que l'Amérique "montre la voie" dans la régulation de l'intelligence artificielle (IA), alors que les législateurs occidentaux peinent à encadrer cette technologie controversée.
Le président américain Joe Biden a signé un décret qui impose notamment aux entreprises du secteur de transmettre au gouvernement fédéral les résultats de leurs tests de sécurité, quand leurs projets posent "un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique".
Les critères de ces tests de sécurité seront fixés au niveau fédéral et rendus publics.
"Pour réaliser les promesses de l'IA et éviter les risques, nous devons gouverner cette technologie. Il n'y a pas d'autre solution (...) : elle doit être encadrée", a déclaré le chef d'Etat avant de signer le décret à la Maison Blanche, devant des élus, membres du gouvernements et représentants d'industries.
Outre les nouvelles évaluations de sécurité, le texte donne des orientations en matière d'équité (pour éviter les biais discriminatoires de l'IA), lance des recherches sur l'impact de l'intelligence artificielle sur le marché du travail et recommande le développement d'outils pour identifier facilement les contenus produits avec de l'IA, notamment.
Le démocrate de 80 ans a mentionné avoir vu une vidéo de lui créée de toutes pièces avec de l'IA (deepfake).
"Je me suis demandé quand est-ce que j'ai bien pu dire ça?", a raconté Joe Biden, s'émouvant au sujet de l'utilisation de l'IA pour arnaquer des personnes en se faisant passer pour des membres de leur famille.
«Responsabilité morale»
La Maison Blanche a beau vanter l'ambition du décret, Joe Biden ne dispose en réalité que d'une marge de manœuvre limitée.
Toute législation réellement contraignante et ambitieuse sur l'IA devrait passer par le Congrès américain. Or ce dernier est pour l'heure divisé entre démocrates et républicains, ce qui rend très peu probable l'adoption d'une loi de grande envergure.
Depuis le printemps, la Maison Blanche insiste sur la "responsabilité morale" des entreprises à garantir la sécurité de leurs systèmes. Elle a obtenu cet été que des grands noms du secteur numérique, comme Microsoft et Google, s'engagent à soumettre leurs systèmes d'intelligence artificielle à des tests extérieurs.
L'intelligence artificielle est déjà largement présente au quotidien, des smartphones aux aéroports.
Mais ces technologies ont pris une nouvelle dimension, avec le déploiement à grande échelle d'IA dites "génératives", depuis cette année, suite au succès sans précédent de ChatGPT.
Elles permettent de produire rapidement des images, des sons ou même des vidéos sur simple demande en langage courant.
Cette révolution technologique fait espérer de grands progrès, dans la médecine notamment, mais aussi craindre une explosion de la désinformation, des pertes massives d'emplois ou encore le vol de propriété intellectuelle. Sans compter l'usage que des régimes autoritaires ou des organisations criminelles peuvent faire de l'IA.
A qui régulera le premier
La course technologique se joue principalement dans l'ouest américain, mais la régulation de l'IA fait l'objet d'une féroce compétition internationale.
"Les Etats-Unis montrent la voie", a lancé Joe Biden lundi.
Son décret s'appuie sur une loi datant de la Guerre froide, le Defense Production Act (1950), qui confère au gouvernement fédéral un certain pouvoir de contrainte sur les entreprises, quand la sécurité du pays est en jeu.
"Mais nous avons quand même besoin que le Congrès agisse", a-t-il insisté, appelant les parlementaires à légiférer afin de "protéger la vie privée" des Américains, au moment où l'intelligence artificielle "non seulement rend plus facile d'extraire, identifier et exploiter les données personnelles, mais encourage aussi à le faire, puisque les entreprises utilisent ces données pour entraîner" les algorithmes.
L'Union européenne, qui produit en abondance des règles dans le domaine numérique, veut se doter avant la fin de l'année d'un système de régulation de l'intelligence artificielle, espérant ainsi donner le la au niveau mondial.
Le Royaume-Uni organise quant à lui cette semaine un sommet sur le sujet, auquel participera la vice-présidente américaine Kamala Harris.
Alexandra Givens, de l'ONG Center for Democracy & Technology, a salué lundi "un effort remarquable du gouvernement pour soutenir le développement et la gouvernance responsables de l'IA".
Mais les efforts de Washington et de Londres sont considérés comme largement insuffisants par de nombreuses autres associations et personnalités.
"Lorsque les gouvernements disent qu'ils mettent en place des garde-fous, il s'agit de garde-fous que les grandes entreprises technologiques leur permettent de mettre en place", a fustigé lundi Alex Winter, un réalisateur, lors d'une conférence de presse d'experts, avocats et créateurs sur les dangers liés à l'IA.