Parlez-vous IA Générative ? (glossaire IA Générative)
Parlez-vous IA générative ?
Glossaire de l'intelligence artificielle générative
Apprentissage par renforcement (Reinforcement Learning)
L'apprentissage par renforcement est une méthode où un agent d'IA apprend à prendre des décisions en recevant des récompenses ou des punitions selon ses actions. L'objectif est d'apprendre à maximiser les récompenses en s'améliorant à chaque tentative.
Entraînement / Training
L'entraînement est le processus par lequel un modèle d'IA apprend à accomplir une tâche. Cela se fait en le confrontant à un grand ensemble de données, puis en ajustant ses paramètres pour qu'il s'améliore progressivement.
Fine-tuning / Réglage fin
Le fine-tuning consiste à prendre un modèle d'IA déjà entraîné et à l'adapter à une tâche spécifique en le formant sur un ensemble de données plus petit et spécialisé. Cela permet au modèle de mieux répondre à des besoins particuliers tout en conservant ses connaissances générales.
Foundation Model / Modèle de base
Un Foundation Model est un modèle d'IA pré-entraîné sur de vastes ensembles de données et capable d'être adapté à diverses tâches spécifiques. Par exemple, des modèles comme GPT servent de base pour générer du texte ou d'autres contenus. Une fois formé, il peut être ajusté pour des applications spécialisées, comme la génération de contenu dans des domaines précis.
Les Foundation Models sont au cœur des progrès récents en IA, car ils permettent de réutiliser une grande partie du savoir acquis par un modèle sur des tâches générales, réduisant ainsi les coûts d'entraînement et améliorant la rapidité de déploiement de solutions IA spécifiques.
Génération augmentée par récupération (Retrieval Augmented Generation - RAG)
La génération augmentée par récupération est une technique qui combine la récupération d'informations à partir de sources externes avec la génération de contenu par l'IA. Cela permet de produire des réponses plus précises en s'appuyant sur des données supplémentaires, comme des bases de connaissances.
Grand modèle de langage (LLM)
Un grand modèle de langage est un type d'IA formé sur d'énormes ensembles de données textuelles. Il est capable de comprendre et de générer du texte complexe, de traduire des langues, de répondre à des questions, et d'analyser des sentiments. Les modèles comme GPT sont des exemples de grands modèles de langage.
GPT (Generative Pre-Trained Transformer)
Les transformateurs génératifs pré-entraînés (GPT) sont des modèles d'IA conçus pour traiter et générer du texte de façon fluide et cohérente. Ils sont formés sur de grandes quantités de données textuelles et sont capables de produire des réponses qui ressemblent à du texte écrit par des humains. Cela les rend utiles pour des tâches comme la rédaction de contenu ou la traduction automatique.
Hallucinations
Dans le contexte de l'IA, les hallucinations désignent des erreurs ou des résultats incohérents générés par un modèle. Ces erreurs peuvent survenir lorsque l'IA fait des suppositions incorrectes ou s'appuie sur des données insuffisantes. C'est pourquoi il est crucial de vérifier les réponses générées par l'IA avant de les utiliser.
Inférence
L'inférence est le moment où un modèle d'IA, après avoir été entraîné, est utilisé pour accomplir une tâche réelle. Cela peut être de générer un texte, de répondre à une question ou de prendre une décision en fonction de ses connaissances acquises pendant la phase de formation.
IA générative
L'IA générative désigne les systèmes capables de créer du contenu inédit, comme des textes, images, sons ou vidéos, en se basant sur des données antérieures. Par exemple, des outils comme DALL-E génèrent des images à partir de descriptions textuelles, et des plateformes comme Synthesia créent des vidéos à partir de textes, ChatGPT, Gemini, Anthropic Claude, Grok, LLama ou Mistral.
Jetons (Tokens)
Les jetons sont les petites unités de texte qu'un modèle d'IA utilise pour comprendre et générer du contenu. Chaque mot ou morceau de mot est un jeton. Par exemple, « maison » pourrait être un seul jeton, tandis que « aujourd'hui » pourrait être divisé en plusieurs jetons.
Prompt / Invite
Une invite est une instruction donnée à un modèle d'IA pour qu'il génère une réponse. Par exemple, dans un modèle comme ChatGPT, une invite peut être une question ou une phrase que l'IA va compléter ou à laquelle elle va répondre.
Prompt Engineering / Ingénierie des invites
L'ingénierie des invites consiste à formuler de manière stratégique les entrées fournies à un modèle d'IA afin de maximiser la qualité des réponses générées. Cela permet d'obtenir des résultats plus pertinents ou plus créatifs.
Température
La température est un paramètre qui contrôle le niveau de créativité d'un modèle d'IA. Une température élevée donne des réponses plus variées et créatives, tandis qu'une température basse produit des réponses plus conservatrices et prévisibles.
Transformer
Les transformateurs sont une architecture utilisée dans les modèles d'IA pour traiter des séquences de données, comme des phrases entières, plutôt que de manière séquentielle. Ils sont particulièrement performants pour comprendre le contexte dans le traitement du langage naturel, ce qui les rend efficaces pour la traduction, la génération de texte, et plus encore.
Tuning / Réglage
Le tuning consiste à ajuster un modèle déjà pré-entraîné pour qu'il réponde mieux à des tâches spécifiques. Cela permet d'améliorer sa précision pour une application donnée, tout en capitalisant sur ses connaissances générales.
Zero-Shot Learning / Apprentissage à partir de zéro
L'apprentissage à partir de zéro permet à un modèle d'IA de résoudre des problèmes pour lesquels il n'a pas été explicitement formé. Le modèle utilise les connaissances qu'il a déjà pour généraliser à de nouvelles situations.