DUBAI/RIYAD: La startup OpenAI de la Silicon Valley a fait sensation en lançant ChatGPT, un outil de chatbot mené par l'intelligence artificielle et capable de formuler des réponses détaillées, semblables à celles d'un être humain, sur une gamme apparemment illimitée de sujets. Rétrospectivement, ce n'était que le début annonciateur d’un renouveau en matière d’IA.
Google a depuis annoncé son propre outil web, Bard, dans le but de concurrencer le succès viral de ChatGPT. Les deux outils reposent sur de grands modèles de langage, formés à partir de vastes quantités de données de manière à générer des réponses impressionnantes aux questions des utilisateurs.
Les conversations avec ChatGPT – GPT signifie «transformeur génératif pré-entraîné» – montrent que le programme est capable d'expliquer des concepts scientifiques complexes, d'écrire des pièces de théâtre et de la poésie, de composer des dissertations universitaires et même de créer des lignes de code informatique fonctionnelles.
Ces programmes peuvent tenir une conversation avec n'importe quel utilisateur humain, quelle que soit son expérience ou sa formation en informatique. Ils ont rédigé de faux rapports scientifiques suffisamment convaincants pour tromper les scientifiques et ont même été utilisés pour écrire un livre pour enfants.
Décrit par certains experts comme un «point de basculement» dans la technologie de l'intelligence artificielle, ChatGPT répond à des «questions en langage naturel sur n'importe quel sujet et donne des réponses approfondies qui se lisent comme si elles avaient été écrites par un humain», selon le Forum économique mondial.
Cependant, les outils Web d'OpenAI et de Google, soutenus par Microsoft, ont suscité des craintes quant à leur utilisation potentielle pour diffuser de la désinformation, orchestrer des escroqueries sophistiquées de type hypertrucage «deep fake», tricher aux examens scolaires et même supprimer des emplois d'écrivain, rendant les auteurs, les journalistes et les professionnels du marketing inutiles.
La façon dont la technologie est accueillie, réagit et est finalement réglementée sera suivie de près par plusieurs pays arabes du Golfe, dont beaucoup ont lancé leurs propres stratégies nationales d'adoption et d'investissement dans l'IA.
L'Arabie saoudite a lancé sa stratégie nationale pour les données et l'intelligence artificielle en octobre 2020, visant à faire du pays un leader mondial dans ce domaine, alors qu'il cherche à attirer 20 milliards de dollars (1 dollar américain = 0,95 euro) d'investissements étrangers et nationaux d'ici 2030.
L’Arabie saoudite vise également à transformer sa main-d'œuvre en formant et en développant des équipes de 20 000 spécialistes de l'IA et des données.
Les Émirats arabes unis ont également fait de l’investissement dans l'IA une priorité absolue, devenant le premier pays au monde à nommer un ministre d'État chargé de l'intelligence artificielle. Omar Sultan al-Olama a pris ses fonctions en octobre 2017 dans le but de diriger l'économie numérique en expansion des Émirats arabes unis.
Le Moyen-Orient devrait bénéficier de 2% des avantages mondiaux de l'IA d'ici la fin de la décennie, soit 320 milliards de dollars. L'IA devrait apporter plus de 135,2 milliards de dollars à l'économie saoudienne, selon le réseau britannique PwC.
Fondée fin 2015, OpenAI est dirigée par Sam Altman, un entrepreneur de 37 ans et ancien président de l'incubateur de startups Y Combinator. L'entreprise est surtout connue pour ses logiciels de création automatisée GPT-3 pour la génération de textes et DALL-E pour la génération d'images.
OpenAI a longtemps compté sur le soutien financier de leaders de l'industrie technologique, notamment le cofondateur de LinkedIn, Reid Hoffman, l'investisseur Peter Thiel et le patron de Tesla, Elon Musk, qui a siégé au Conseil d'administration de la start-up jusqu'en 2018.
En janvier de cette année, la multinationale Microsoft a augmenté son investissement initial de 2019 dans l'entreprise de 1 milliard de dollars à 10 milliards de dollars, ce qui signifie que l'entreprise OpenAI est maintenant évaluée à environ 29 milliards de dollars.
Le produit phare de Google – le moteur de recherche en ligne – serait confronté à son plus grand défi depuis son lancement en 1996. Des rapports affirment que l'énorme attention suscitée par ChatGPT a incité la direction de Google à déclarer une situation de «code rouge» pour son activité de recherche.
ChatGPT est utilisé pour obtenir des réponses à des questions que de nombreuses personnes auraient auparavant cherché sur l'outil de recherche phare de Google. Le mois dernier, Microsoft a annoncé que la prochaine version de son moteur de recherche Bing serait menée par OpenAI. Une nouvelle version du navigateur web Edge est également prévue, avec une technologie de chat OpenAI dans une fenêtre pour aider les utilisateurs à naviguer et à comprendre les pages web.
Malheureusement pour Google, Bard a connu des débuts embarrassants au début du mois de février, lorsqu'une vidéo de démonstration du chatbot a montré qu'il donnait une mauvaise réponse à une question sur le télescope spatial James Webb.
«Dans le passé, chaque innovation et chaque progrès a fait l'objet de discussions en rapport avec les préoccupations, qu'il s'agisse des avions, des voitures, des téléphones portables, de l'internet, de Google, de YouTube, des réseaux sociaux et bien d'autres choses encore.
«Avec le recul, nous pouvons tous dire qu'ils nous ont non seulement facilité la vie, mais qu'ils sont également considérés comme la norme aujourd'hui. Je suis très optimiste et je crois qu'avec le temps et le développement, ChatGPT nous facilitera également la vie et deviendra la norme.»
Cependant, tout le monde n'est pas aussi optimiste que Sayed. Compte tenu de la rapidité des changements technologiques en cours, de nombreux travailleurs craignent que leurs emplois professionnels ne soient bientôt entièrement remplacés par des machines, de la même manière que les précédentes vagues d'automatisation ont éliminé des emplois agricoles et manufacturiers.
De nombreux experts du secteur estiment que ces pertes d'emploi seront probablement compensées par une augmentation du nombre de nouveaux rôles qualifiés dans la conception, la construction et l'entretien des produits d'IA, ce qui nécessitera un changement dans le type d'éducation que les gouvernements devraient fournir à leur future main-d'œuvre.
Disable checkingPremium suggestionsDisable checkingPremium suggestionsEN CHIFFRES
- 119,78 milliards de dollars: la valeur estimée du marché mondial de l'IA en 2022.
- 15,7 milliards de dollars: la contribution attendue de l'IA à l'économie mondiale d'ici 2030.
- 13x la croissance prévue de l'industrie de l'IA au cours des 8 prochaines années.
- 97 millions: le nombre prévu de personnes travaillant dans le domaine de l'IA d'ici 2024.
Bien que Sayed reconnaisse que l'IA modifiera la façon dont les gens interagissent et communiquent, il est convaincu que les humains «apprendront à s'adapter aux changements au fil du temps», de la même façon qu'ils ont accepté et se sont adaptés aux avancées technologiques passées. À bien des égards, c'est déjà le cas.
«Au cours des dernières années, certains d'entre nous ont peut-être déjà été confrontés à une forme de produit d'IA, consciemment ou inconsciemment, lors de nos discussions avec les centres d'appels, les chatbots des sites web, les opérations chirurgicales dans les hôpitaux, Siri, Alexa, certains produits Google, certains constructeurs automobiles et bien d'autres encore», a-t-il précisé.
Au-delà du futur marché de l'emploi, les chatbots créent également des maux de tête pour les établissements d'enseignement. Certains établissements d'enseignement supérieur ont réintroduit des tests sur papier afin d’empêcher les étudiants d'utiliser l'IA pendant les examens, après que certains d'entre eux ont été surpris en train d'utiliser des chatbots pour répondre à des questions d'examen.
Le département de l'éducation de la ville de New York a interdit ChatGPT sur ses réseaux en raison de «préoccupations concernant les effets négatifs sur l'apprentissage des élèves». Un groupe d'universités australiennes a également déclaré qu'il modifierait les formats d'examen pour empêcher la tricherie par IA.
Le 27 janvier, l’Institut d'études politiques de Paris, l'une des plus prestigieuses universités françaises, a annoncé que tout étudiant (e) ayant utilisé le chatbot s'exposerait à des «sanctions pouvant aller jusqu'à l’exclusion de l'établissement, voire de l'enseignement supérieur».
Grâce aux données recueillies sur le web, ChatGPT a même pu passer des examens à la faculté de droit de l'université du Minnesota après avoir rédigé des dissertations sur des sujets allant du droit constitutionnel à la fiscalité et à la responsabilité civile – il aurait obtenu une note de C+.
Certaines entreprises commercialisent désormais des programmes qu'elles prétendent capables d'intercepter un texte rédigé par l'intelligence artificielle afin d'empêcher la tricherie.
Malgré la tentation de compter sur ces programmes pour répondre aux questions d'examen, remplacer les moteurs de recherche existants ou fournir une couverture médiatique impartiale, Jenna Burrell, directrice de recherche à Data & Society, un organisme de recherche indépendant à but non lucratif basé en Californie, estime qu'il faut prendre les réponses de ChatGPT avec un léger sentiment d'incrédulité.
«ChatGPT simplifie les choses et il est amusant à utiliser. Il peut être très utile pour les journalistes», a indiqué Burrell lors d'un récent webinaire sur l'impact de la technologie sur le travail des professionnels des médias. Cependant, les informations qu'il fournit «ne sont pas à jour... (et) le besoin de vérification des faits s’impose».
Selon Burrell, l'IA ne pourra pas remplacer tous les emplois professionnels, puisqu’elle ne peut pas complètement imiter l'innovation, la créativité, le scepticisme et le raisonnement humain.
En outre, ChatGPT, qui est basé sur des «grands modèles de langage», n'est pas la seule forme émergente d'IA – et il n’est pas nécessairement la forme la plus sophistiquée. L'apprentissage par renforcement, les réseaux antagonistes génératifs (RAG) et l'IA symbolique sont autant de modèles alternatifs qui le suivent de près.
«Les grands modèles de langage sont entraînés en y introduisant des milliards de mots de textes quotidiens, provenant de sources allant des livres aux tweets et à tout ce qui existe entre les deux. Les grands modèles de langage s'appuient sur tout ce matériel pour prédire des mots et des phrases dans certaines séquences», ont clarifié Dan Milmo et Alex Hern, rédacteurs techniques du journal britannique Guardian, dans un article récent.
«Les grands modèles de langage ne comprennent pas les choses au sens classique du terme, et leur qualité et leur précision dépendent des informations qui leur sont fournies. Ce sont essentiellement des machines qui font correspondre des modèles. La question n'est pas de savoir si le résultat est “vrai”, tant qu'il correspond au modèle.»
Interrogé directement par Arab News pour savoir s'il envisageait à terme de remplacer les rédacteurs humains, ChatGPT s'est montré rassurant, semblant reconnaître ses propres limites créatives et analytiques sur un ton qui pourrait être interprété comme de la modestie.
«Mes capacités se limitent à générer du texte sur la base de modèles et de schémas que j'ai vus au cours de ma formation sur les données textuelles», a répondu ChatGPT.
«Les auteurs humains apportent une créativité, une émotion et une perspective personnelle que je ne suis pas en mesure de reproduire. En outre, les auteurs humains sont capables d'interpréter, d'analyser et d'apporter leur propre point de vue et leur propre vision à un texte.»
ChatGPT a affirmé qu'il était programmé pour «aider» à la création de contenu sur les réseaux sociaux, les blogs et les sites web et pour rédiger des plans d'affaires, des rapports, des courriels et des présentations, des documents juridiques tels que des contrats, des rapports et des résumés médicaux, ainsi que des réponses aux demandes de renseignements et aux réclamations des clients.
Malgré ses nombreuses applications possibles, du divertissement au diagnostic médical, et son immense potentiel d'investissement, avec des prévisions évaluées à des milliers de milliards de dollars, l'ère de l'IA reste marquée par l'inquiétude.
Scott Nowson, responsable de l'intelligence artificielle chez PwC Moyen-Orient, a déclaré à Arab News lors de la conférence technologique Leap qui s'est tenue à Riyad début février: «La confiance est la clé d'une expansion sûre de l'utilisation des solutions d'IA dans le monde.»
Si certaines compétences et certaines tâches se prêtent mieux à l'automatisation grâce à la technologie, l'utilisation de l'IA «dépend toujours de l'intelligence et de la conscience humaines», a-t-il ajouté.
Nowson a ajouté: «L'IA suscite autant d'optimisme que de pessimisme. Les gens pensent que l'IA nous remplacera complètement, alors que je ne le crois pas du tout. Je pense que plusieurs générations nous séparent du moment où l'IA dépassera les capacités humaines.»
Alors que les pays du Golfe poursuivent leurs stratégies nationales en matière d'IA et créent des écoles pour former la prochaine génération de développeurs technologiques, ce n'est qu'une question de temps avant que des produits similaires ne fassent leur apparition sur le marché régional.
Sayed, cofondateur de DeenSquare, s'attend à ce que les gouvernements, les entreprises et les développeurs technologiques du Golfe suivent avec intérêt la croissance et les applications des outils menés par l'IA.
«Je suis certain que lors de leurs prochaines réunions d'examen de la stratégie, les dernières tendances seront discutées afin de voir comment elles peuvent contribuer aux stratégies des pays du golfe à tirer profit de ces technologies», a-t-il soutenu.
Ce texte est la traduction d’un article paru sur Arabnews.com
Disable checkingPremium suggestions