50+ termes essentiels pour maitriser le langage de l'intelligence artificielle. De Agent a Zero-shot, tout ce qu'il faut savoir.
Un agent IA est un programme autonome capable de percevoir son environnement, prendre des decisions et executer des actions pour atteindre un objectif. Il combine souvent un LLM avec des outils externes.
Interface de programmation applicative permettant a des logiciels de communiquer entre eux. Les API d'IA (OpenAI, Anthropic) permettent d'integrer des modeles dans vos applications.
Mecanisme central des Transformers qui permet au modele de ponderer l'importance relative de chaque element d'une sequence. C'est la base de l'architecture derriere GPT et BERT.
Utilisation de l'IA et d'outils logiciels pour executer des taches repetitives sans intervention humaine. Les workflows automatises combinent souvent plusieurs API et modeles.
Traitement de donnees par lots plutot qu'en temps reel. En IA, cela permet de traiter de grands volumes de requetes simultanement pour optimiser les couts et les performances.
Bidirectional Encoder Representations from Transformers. Modele de Google qui comprend le contexte des mots dans les deux sens d'une phrase, revolutionnant le NLP en 2018.
Distorsion systematique dans les resultats d'un modele d'IA causee par des donnees d'entrainement non representatives ou des choix de conception. C'est un enjeu ethique majeur.
Interface conversationnelle d'OpenAI basee sur les modeles GPT. Lancee fin 2022, elle a democratise l'acces aux grands modeles de langage aupres du grand public.
Tache de machine learning consistant a attribuer une categorie predefinies a une donnee d'entree. Exemples : detection de spam, analyse de sentiment, tri d'images.
Assistant IA developpe par Anthropic, connu pour son approche axee sur la securite (Constitutional AI). Il excelle dans l'analyse de longs documents et le raisonnement.
Technique d'apprentissage non supervise regroupant automatiquement des donnees similaires en clusters. Utilise pour la segmentation client, l'analyse de marche, etc.
Domaine de l'IA permettant aux machines d'interpreter et d'analyser des images et des videos. Applications : reconnaissance faciale, vehicules autonomes, controle qualite.
Quantite maximale de texte (en tokens) qu'un LLM peut traiter en une seule requete. GPT-4 offre 128K tokens, Claude jusqu'a 200K tokens.
Technique consistant a creer de nouvelles donnees d'entrainement a partir de donnees existantes via des transformations (rotation, bruit, paraphrase). Ameliore la generalisation du modele.
Ensemble structure de donnees utilise pour entrainer, valider ou tester un modele d'IA. La qualite du dataset est determinante pour la performance du modele.
Sous-domaine du machine learning utilisant des reseaux de neurones a multiples couches. Il est a la base des avancees en vision par ordinateur, NLP et generation de contenu.
Type de modele generatif qui apprend a creer des images en inversant un processus de bruitage progressif. Stable Diffusion et DALL-E utilisent cette approche.
Representation numerique dense d'un mot, d'une phrase ou d'un document dans un espace vectoriel. Permet de mesurer la similarite semantique entre textes.
Un passage complet a travers l'ensemble du dataset d'entrainement. Le nombre d'epochs est un hyperparametre cle qui influence la convergence du modele.
Mesures quantitatives utilisees pour evaluer la performance d'un modele : precision, rappel, F1-score, perplexite, BLEU, etc.
Capacite d'un modele a apprendre une nouvelle tache a partir de seulement quelques exemples fournis dans le prompt. Intermediaire entre zero-shot et fine-tuning.
Processus d'adaptation d'un modele pre-entraine sur un jeu de donnees specifique pour une tache particuliere. Permet de specialiser un LLM sans le reentrainer de zero.
Grand modele pre-entraine sur de vastes donnees non etiquetees, servant de base a de multiples taches. GPT-4, Claude et LLaMA sont des foundation models.
Reseaux Antagonistes Generatifs : architecture ou deux reseaux (generateur et discriminateur) s'affrontent pour produire des contenus realistes. Pionniers de la generation d'images.
Generative Pre-trained Transformer, famille de modeles d'OpenAI. GPT-4 est l'un des LLM les plus avances, capable de comprendre et generer du texte, du code et d'analyser des images.
Algorithme d'optimisation fondamental en deep learning qui ajuste les poids du modele en suivant la direction de la descente du gradient de la fonction de perte.
Technique consistant a ancrer les reponses d'un LLM dans des donnees factuelles et verifiables. Le RAG est une methode courante de grounding.
Phenomene ou un modele de langage genere des informations fausses ou inventees avec assurance. C'est l'un des principaux defis des LLM actuels.
Parametre defini avant l'entrainement d'un modele (taux d'apprentissage, nombre de couches, taille du batch). Son reglage impacte directement la performance du modele.
Phase d'utilisation d'un modele entraine pour faire des predictions sur de nouvelles donnees. C'est le moment ou le modele 'travaille' pour repondre a vos requetes.
Domaine de l'informatique visant a creer des systemes capables de simuler des capacites cognitives humaines : apprentissage, raisonnement, perception et decision.
Large Language Model (Grand Modele de Langage). Modele d'IA entraine sur d'immenses corpus de texte, capable de comprendre et generer du langage naturel. Exemples : GPT-4, Claude, Mistral.
Low-Rank Adaptation. Technique de fine-tuning efficace qui ajoute de petites matrices d'adaptation au modele, permettant de le specialiser avec beaucoup moins de ressources.
Fonction mathematique mesurant l'ecart entre les predictions du modele et les valeurs attendues. L'objectif de l'entrainement est de minimiser cette fonction.
Sous-domaine de l'IA ou les algorithmes apprennent automatiquement a partir de donnees sans etre explicitement programmes. Inclut le supervised, unsupervised et reinforcement learning.
Outil de generation d'images par IA accessible via Discord. Repute pour la qualite artistique de ses images, il est tres utilise dans le design et la creation visuelle.
Modele statistique ou neuronal entraine pour predire et generer du texte. Les modeles de langage modernes (LLM) sont bases sur l'architecture Transformer.
Se dit d'un modele capable de traiter plusieurs types de donnees : texte, image, audio, video. GPT-4V et Gemini sont des exemples de modeles multi-modaux.
Plateforme open-source d'automatisation de workflows permettant de connecter des applications et des modeles d'IA via une interface visuelle sans code.
Reseau de neurones artificiels : modele inspire du cerveau humain, compose de couches de neurones interconnectes. Base du deep learning.
Natural Language Processing (Traitement du Langage Naturel). Branche de l'IA consacree a la comprehension et la generation du langage humain par les machines.
Valeurs internes d'un modele ajustees pendant l'entrainement (poids des neurones). Un modele comme GPT-4 possede des centaines de milliards de parametres.
Instruction ou question en langage naturel envoyee a un modele d'IA pour obtenir une reponse. La qualite du prompt determine largement la qualite de la reponse.
Art et science de concevoir des prompts optimaux pour obtenir les meilleurs resultats d'un LLM. Inclut des techniques comme le chain-of-thought, few-shot et role-playing.
Retrieval-Augmented Generation. Technique combinant un LLM avec une base de connaissances externe pour generer des reponses plus precises et a jour.
Apprentissage par renforcement : methode ou un agent apprend en interagissant avec un environnement, recevant des recompenses ou penalites pour guider son comportement.
Reinforcement Learning from Human Feedback. Technique utilisee pour aligner les LLM sur les preferences humaines en utilisant des retours d'evaluateurs humains.
Reseau de Neurones Recurrent. Architecture de deep learning traitant les sequences pas a pas avec une memoire interne. Largement remplace par les Transformers.
Modele open-source de generation d'images par diffusion developpe par Stability AI. Il peut etre execute localement et personnalise avec des modeles LoRA.
Apprentissage supervise : methode d'entrainement ou le modele apprend a partir de donnees etiquetees (paires entree-sortie). C'est la methode la plus courante en ML.
Technologie de generation de voix artificielle a partir de texte (TTS). Les modeles modernes produisent des voix quasi indistinguables de la voix humaine.
Hyperparametre controlant le degre d'aleatoire dans les reponses d'un LLM. Une temperature basse (0) donne des reponses plus deterministes, une temperature haute plus creatives.
Unite de base de traitement d'un LLM. Un token represente environ 3/4 d'un mot en anglais. Le cout d'utilisation des API est generalement facture par million de tokens.
Technique consistant a reutiliser un modele entraine sur une tache pour l'adapter a une autre tache similaire. Principe fondamental des foundation models.
Architecture de reseau de neurones introduite en 2017 dans l'article "Attention Is All You Need". Base de tous les LLM modernes grace a son mecanisme d'attention.
Apprentissage non supervise : methode ou le modele decouvre des structures dans les donnees sans etiquettes. Utilise pour le clustering, la reduction de dimension et la detection d'anomalies.
Base de donnees specialisee dans le stockage et la recherche de vecteurs (embeddings). Essentielle pour le RAG, la recherche semantique et les systemes de recommandation.
Voir Computer Vision. Domaine de l'IA qui permet aux machines d'analyser et comprendre le contenu visuel (images, videos).
Representation vectorielle d'un mot capturant sa signification semantique. Word2Vec et GloVe sont des methodes classiques, desormais integrees dans les Transformers.
Enchainement automatise d'etapes et d'actions utilisant des outils d'IA. Permet d'automatiser des processus complexes en connectant plusieurs services et modeles.
Capacite d'un modele a accomplir une tache sans aucun exemple prealable. Les LLM modernes excellent en zero-shot grace a leur entrainement massif.
Explorez nos guides, prompts et workflows pour mettre ces concepts en pratique.