RIYAD: L’intelligence artificielle (IA) pourrait bientôt devenir un outil utile dans les tribunaux, mais le monde est encore loin de voir les algorithmes juger les humains, déclarent des experts lors d’un événement à Riyad.
Des experts réunis lors de la Conférence internationale sur la justice, au Ritz Carlton, ont discuté de la manière dont la technologie pourrait être appliquée en toute sécurité, au cours d’un débat intitulé «La dimension juridique de l’intelligence artificielle».
Andrea Isoni, directeur du cabinet de conseil AI Technologies, déclare à Arab News que la technologie pourrait être bénéfique dans de nombreux cas, mais qu’il fallait se méfier de certains pièges.
«La préparation des documents, la lecture des informations contenues dans les documents, qui nécessite beaucoup de temps, et l’extraction d’informations à partir de documents; tous ces processus sont des problèmes de sécurité de bas niveau qui pourraient avoir recours à l’efficacité de l’intelligence artificielle», explique-t-il.
«L’ensemble des lois ne permet toujours pas à l’IA de juger les gens. Même lors des examens, si une IA vous note, qui serait responsable? Il en est de même pour la loi et le jugement auprès d’une Cour.»
«Même si la technologie est prête, les lois doivent changer considérablement pour déterminer qui est responsable. Quelqu’un devrait être tenu responsable si l’IA dysfonctionne.»
M. Isoni, qui est également le directeur de l’IA de son cabinet de conseil, affirme que les systèmes judiciaires de nombreux pays devraient se pencher sur l’IA pour accélérer les procédures judiciaires.
Au cours de la conférence, les participants ont discuté des avantages et des défis de l’utilisation de l’IA dans le domaine du droit.
Lawrence Lessig, professeur de droit et de leadership à la Harvard Law School, fait allusion à une IA en Californie qui avait accumulé suffisamment de connaissances juridiques pour réussir l’examen du barreau de l’État.
«Je pense que dans dix ans, cette technologie rendra possible l’automatisation de 75% de ce que font les avocats. Le plus important pour nous désormais est de nous assurer que les humains gardent le contrôle», précise-t-il.
«Le système, bien qu’il permette l’automatisation d’une grande partie des tâches des avocats, doit préserver un rôle pour le jugement et la justice. Il devra donner à ceux qui sont lésés par cette technologie la possibilité de réparer ces torts.»
Christopher Markou, qui prépare un doctorat à la faculté de droit de l’université de Cambridge, estime que l’IA peut connaître les textes de loi, mais ne peut pas en saisir «l’esprit».
«L'esprit de la loi est en réalité une notion assez floue et une zone grise. Pour la partie qui nécessite une interprétation, on a besoin d’un individu cultivé capable de donner un sens à ce que cette règle non seulement stipule, mais aussi à ce qu’elle est vraiment censée réaliser au sein de la société», déclare M. Markou à l’auditoire.
Le professeur Ryan Abbott de l’université de Surrey soutient que les gouvernements doivent envisager une réglementation appropriée pour l’IA.
«Il se peut qu'une IA soit capable de répondre à une question aussi bien qu'un être humain, et nous devrons déterminer comment le système de réglementation devrait traiter cela», indique M. Abbott.
«Lorsque la loi traite différemment les personnes et les machines en termes de comportement, cela a parfois des conséquences négatives pour les êtres humains et le bien-être social.»
Anupam Chander, professeur de droit au Georgetown University Law Center, avertit que l’IA par apprentissage automatique est susceptible d’exacerber les préjugés déjà répandus dans la société en raison des documents à partir desquels elle puise ses sources.
Il cite l’exemple du système d’embauche de l’IA d’Amazon, que l’entreprise a ensuite abandonné parce qu’elle avait appris à favoriser les candidats masculins en raison des informations qui lui avaient été fournies.
«L’IA favorisait les hommes par rapport aux femmes. En effet, le système avait été alimenté pendant dix ans par des données d’anciens salariés qui étaient essentiellement des hommes et ne représentaient donc pas correctement les caractéristiques que les femmes pourraient apporter.»
Ryan Abbott déclare que l’IA avait progressé dans de nombreux domaines, tels que le langage, la musique et l’art, mais que la loi se retrouve dans le flou si une IA invente une nouvelle technologie sans interaction humaine.
«Si une invention est obtenue sans intervention humaine, elle ne peut pas être brevetée», déclare M. Abbott. «Donc, si une société pharmaceutique peut utiliser une IA très sophistiquée pour trouver un nouveau traitement contre la Covid-19, elle ne pourrait pas obtenir de brevet pour ce médicament et elle ne bénéficierait pas des incitations adéquates pour le commercialiser», souligne-t-il.
Jusqu’à présent, les demandes de brevet ont été acceptées en Arabie saoudite et en Afrique du Sud. Elles sont toujours en attente dans d’autres pays.
«Il existe une question que le ministère de la Justice, ici, et les régulateurs du monde entier vont devoir se poser: que faisons-nous lorsque les machines se comportent comme des personnes et comment encourageons-nous les machines à se comporter d'une manière qui soit socialement utile?», s’interroge M. Abbott.
Ce texte est la traduction d’un article paru sur Arabnews.com