Abonnez-vous à Universalis pour 1 euro

INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE

Modèles de langage

Pour répondre aux besoins du traitement automatique des langues naturelles (TALN), les chercheurs en IA recourent à l’hypothèse dite distributionnelle, selon laquelle le sens des mots provient du contexte dans lequel ils sont employés. On approche ce contexte avec la notion de « plongement lexical » – wordembedding, en anglais –, que l’on représente sous la forme d’un vecteur de taille fixe calculé au moyen de réseaux de neurones formels. Ce dernier établit le lien entre un mot et ses contextes d’apparition. Depuis 2017, les chercheurs des laboratoires de la société Google ont mis en évidence l’utilité des mécanismes dits d’attention pour concevoir des techniques efficaces de calcul des plongements lexicaux que l’on appelle les « transformeurs » (A. Vaswani et al., 2017). Ceux-ci ont donné naissance aux grands modèles de langage comme BERT (Bidirectional Encoder Representations from Transformers) ou GPT (Generative Pretrained Transformer), qui comprennent des centaines de milliards de paramètres et que l’on entraîne sur l’équivalent de centaines de milliers d’ouvrages.

Ces modèles aident à perfectionner la plupart des techniques du TALN comme le résumé de textes, la fabrication de systèmes dits de question/réponse ou la génération automatique de textes par anticipation statistique du mot le plus probable. Et les mêmes techniques s’appliquent à d’autres textes, comme les programmes écrits dans des langages informatiques.

La suite de cet article est accessible aux abonnés

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

Classification

Médias

Architecture d’un réseau antagoniste génératif (GAN) - crédits : Encyclopædia Universalis France

Architecture d’un réseau antagoniste génératif (GAN)

Image produite par l’intelligence artificielle générative - crédits : Passés Composé/ Humensis 2023

Image produite par l’intelligence artificielle générative

Autres références

  • INTELLIGENCE ARTIFICIELLE (IA)

    • Écrit par
    • 5 584 mots
    • 5 médias

    Enfant terrible de l’informatique, l’intelligence artificielle est apparue au milieu des années 1950, soit une dizaine d’années après la fabrication de l’ENIAC (Electronic Numerical Integrator and Computer), premier ordinateur entièrement électronique. À l’origine, elle se proposait de simuler les...

  • APPRENTISSAGE PROFOND ou DEEP LEARNING

    • Écrit par
    • 2 645 mots
    • 1 média

    Apprentissage profond, deeplearning en anglais, ou encore « rétropropagation de gradient »… ces termes, quasi synonymes, désignent des techniques d’apprentissage machine (machine learning), une sous-branche de l’intelligence artificielle qui vise à construire automatiquement des connaissances...

  • MOTEURS DE RECHERCHE

    • Écrit par
    • 4 704 mots
    • 2 médias
    ...la liste des résultats pour résumer les renseignements supposés essentiels : c’est le Knowledge Graph. Une telle fonctionnalité est rendue possible parl’intelligence artificielle générative qui permet de composer des textes ou images à partir de l’analyse d’une importante masse de données.