Rejoignez getAbstract pour lire le résumé !

L’I.A. maîtrise le langage. Pouvons-nous nous fier à ce qu’elle dit ?

Rejoignez getAbstract pour lire le résumé !

L’I.A. maîtrise le langage. Pouvons-nous nous fier à ce qu’elle dit ?

GPT-3 d’OpenAI et d’autres réseaux neuronaux peuvent désormais rédiger des textes originaux avec une fluidité incroyable, une évolution qui pourrait avoir d’importantes implications pour l’avenir.

New York Times Magazine,

5 minutes de lecture
5 points à retenir
Audio et texte

Aperçu

Les machines deviennent plus intelligentes, mais est-ce une bonne chose ?


Classement éditorial

10

Caractéristiques

  • Révélateur
  • Audacieux
  • Important

Commentaires

À quoi ressemblerait le monde avec une véritable intelligence artificielle générale ? Avec le nouveau grand modèle de langage GPT-3 remarquable d’OpenAI, l’avenir s’annonce prometteur. Cette technologie pourrait être largement utilisée dans tous les secteurs. La question troublante est : l’humanité doit-elle créer une telle entité et quelles pourraient être les conséquences potentielles ? Les fondateurs d’OpenAI veulent que l’IAG « bénéficie » à l’ensemble du genre humain – mais ce n’est pas forcément possible, ni même souhaitable.

Résumé

OpenAI a créé un superordinateur qui exploite l’IA pour rédiger des textes originaux.

Dans un complexe de l’Iowa, l’un des superordinateurs les plus puissants au monde, doté de 285 000 cœurs de processeur qui traitent d’innombrables calculs, exécute un programme appelé GPT-3 (Generative Pre-Trained Transformer 3), développé par OpenAI. Il joue à un jeu appelé « Devinez le mot manquant ». Ce superordinateur apprend à rédiger des textes originaux avec une étonnante « illusion cognitive ».

OpenAI a été fondée en 2015 par plusieurs géants de la Silicon Valley, dont Elon Musk et Greg Brockman. GPT-3 est sorti en 2020 et a étonné les testeurs par sa ressemblance avec HAL 9000 du film 2001 : L’Odyssée de l’espace. Cependant, GPT-3 pense-t-il réellement ou s’agit-il d’un « perroquet stochastique », un grand modèle de langage (large language model ou LLM) qui s’approprie et recombine simplement du texte rédigé par l’homme ?

GPT-3 est un grand modèle de langage, à savoir un réseau neuronal complexe similaire à un cerveau, avec de nombreuses couches ayant chacune un niveau d’abstraction...

À propos de l’auteur

Steven Johnson écrit pour le New York Times Magazine. Il est l’auteur de Future Perfect: The Case for Progress in a Networked Age. Il rédige également la newsletter Adjacent Possible sur Substack.