More Related Content Similar to GenAI dans les professional services - LLM vs RAG (20) GenAI dans les professional services - LLM vs RAG2. IG1
Iguane Solutions ©2024 - tous droits réservés - ig1.com
GenAI appliquée aux professional services
2
INTRODUCTION
A LA GEN AI
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
RAG: GEN AI EN ACTION
DANS LE PLATFORM
ENGINEERING
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
QUESTIONS
Séance de questions /
réponses
@IguaneSolutions
4. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1. Introduction à la Gen AI
Intervenants
4
INTRODUCTION
A LA GEN AI
CEO
Stephane Cohen
CTO
Mohamed Ben Braiek
CRO
Cédric Le Moan
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
5. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.1. Introduction à la Gen AI
D'où vient la Gen AI ?
5
INTRODUCTION
A LA GEN AI
D'où vient la Gen AI ?
L'histoire de l'Intelligence Artificielle Générative, souvent
appelée Gen AI, concerne le développement et l'évolution
des technologies d'intelligence artificielle capables de
générer de nouveaux contenus, données ou solutions à
partir de modèles appris et de données saisies.
Cette histoire se déroule sur plusieurs décennies,
marquée par plusieurs jalons significatifs..
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
6. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.1. Introduction à la Gen AI
6
INTRODUCTION
A LA GEN AI
1. Fondations Initiales (années 1950-1970): L'histoire commence avec les travaux fondateurs en IA au milieu du
20ème siècle. La recherche en IA de cette époque, influencée par des personnalités comme Alan Turing, se concentrait sur des systèmes basés
sur des règles qui pouvaient imiter certains aspects de l'intelligence humaine.
2. Montée des Réseaux Neuronaux (années 1980-1990): Cette période a vu le développement des
réseaux neuronaux, des systèmes informatiques vaguement inspirés des réseaux neuronaux biologiques du cerveau humain. Cette ère a
jeté les bases de l'apprentissage automatique, où les ordinateurs apprennent à effectuer des tâches sans être explicitement programmés
pour chaque tâche spécifique.
3. Apprentissage Automatique et Données (années 2000): Avec l'avènement du big data et des
ressources informatiques plus puissantes, les algorithmes d'apprentissage automatique, en particulier l'apprentissage profond (un
sous-ensemble de l'apprentissage automatique impliquant des réseaux neuronaux avec de nombreuses couches), ont commencé à avancer
rapidement. Ces développements ont permis des modèles génératifs plus sophistiqués.
4. Modèles Génératifs (années 2010): Des modèles génératifs comme les réseaux antagonistes génératifs (GAN) et
les autoencodeurs variationnels (VAE) ont été développés. Ces modèles peuvent générer de nouveaux échantillons de données (tels que des
images, du texte et du son) qui ressemblent aux données sur lesquelles ils ont été formés. Cette période a également vu des améliorations dans
le traitement du langage naturel avec des modèles comme LSTM et les architectures Transformer.
5. Adoption Grand Public et Considérations Éthiques (Fin des années 2010-2020):
L'IA générative a commencé à être adoptée plus largement avec des applications dans l'art, la musique, la création de contenu, etc. Cette période
a également soulevé des préoccupations éthiques importantes, y compris des questions sur les deepfakes, la désinformation, la confidentialité
des données et le potentiel d'utilisation non éthique du contenu généré par l'IA.
6. Modèles Avancés de Langage (années 2020): Cette ère est marquée par le développement de modèles de
langage sophistiqués comme la série GPT (Generative Pretrained Transformer) d'OpenAI. Ces modèles peuvent générer du texte cohérent
et contextuellement pertinent, permettant une large gamme d'applications allant de l'assistance à l'écriture à l'IA conversationnelle.
D'où vient la Gen AI ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
7. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
7
INTRODUCTION
A LA GEN AI
Concrètement la Gen AI c’est quoi ?
“On peut l’imaginer comme un
énorme cerveau numérique
qui apprend en lisant énormément de textes,
un peu comme un étudiant qui passe
tout son temps à la bibliothèque.”
. ChatGPT
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
8. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
8
INTRODUCTION
A LA GEN AI
apprentissage : injection de contenus
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
LLM
9. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
9
INTRODUCTION
A LA GEN AI
LLM
communication : échanges avec Gen AI
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
10. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
10
INTRODUCTION
A LA GEN AI
La technologie de la Gen AI est basée sur des
Large Language Models
LLM
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
11. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
11
INTRODUCTION
A LA GEN AI
Qu’est-ce qu’un
Large Language Model ?
Architecture de Réseau de Neurones:
Les LLM utilisent une architecture spécifique appelée "Transformer",
qui est excellente pour traiter des séquences, comme le texte.
Afin de d'appréhender le fonctionnement d’une GenAI, nous allons
rappeler l’utilisation d’un modèle LLM qui nécessite 6 étapes
Qu’est-ce qu’un Large Language Model (LLMs) ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
12. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
12
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
13. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
13
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Préparation du Dataset
(collecte, nettoyage et prétraitement)
Dataset
1.
Utilisation d’un LLM
14. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
14
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
15. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
15
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Création des Vecteurs
(Tokenisation, Embedding (EMB))
LLM
Dataset
2.
Utilisation d’un LLM
16. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
16
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
17. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
17
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Utilisation de l’architecture Transformer
(Mécanisme d’Attention, couches du Transformer)
LLM
3.
Utilisation d’un LLM
18. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
18
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
19. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
19
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Entrainement du Modèle
(Apprentissage, Optimisation)
LLM
4.
Utilisation d’un LLM
20. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
20
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
21. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
21
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Fine-Tuning du Modèle
(Spécialisation du Modèle)
LLM
5.
Utilisation d’un LLM
22. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
22
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
23. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
23
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
utilisent
Utilisation
Pratique
LLM
6.
Utilisation d’un LLM
24. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
24
INTRODUCTION
A LA GEN AI Quels sont les avantages d’un
Large Language Model ?
Qu’est-ce qu’un Large Language Model (LLMs) ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
25. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Les LLMs excellent dans l'interprétation
du langage complexe, permettant des
interactions nuancées entre les humains et
les machines. Cette compréhension
avancée facilite les innovations dans des
secteurs tels que le commerce
électronique et la santé, se traduisant par
de meilleurs services et diagnostics.
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
25
INTRODUCTION
A LA GEN AI
L L M : Avantages
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Compréhension Complète
En automatisant la création de contenu et
l'analyse de données, les LLMs permettent
d'économiser un temps précieux et des
ressources, permettant ainsi de se
concentrer davantage sur des tâches
stratégiques et des entreprises créatives.
Rationalisation des
Flux de Travail
Les capacités multilingues des LLMs
démocratisent l'accès à l'information et
favorisent la communication mondiale,
essentielles pour les entreprises et les
communautés dans le monde entier.
Briser les
Barrières Linguistiques
26. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
26
INTRODUCTION
A LA GEN AI Quels sont les inconvénients d’utiliser un
Large Language Model ?
Qu’est-ce qu’un Large Language Model (LLMs) ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
27. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
27
INTRODUCTION
A LA GEN AI
L L M : Inconvénients
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Pas de clarté de source Pas de restriction d'accès Coût d’hosting d’un LLM
Répétition des ajustements
28. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
28
2. RAG: Gen AI en Action dans le Platform Engineering
29. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
29
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.1. Gen AI in action in Platform Engineering
RAG : Élever les LLMs avec précision et perspicacité
En quoi consiste le RAG ?
Retrieval .
Augmented .
Generation ?
2.1. RAG : Élever les LLMs
avec précision et
perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
30. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
30
2.1. Gen AI in action in Platform Engineering
RAG : Élever les LLMs avec précision et perspicacité
En quoi consiste le RAG ?
Retrieval Augmented Generation
La génération augmentée par récupération (RAG) est une
méthode de Gen IA avancée qui combine la capacité créative
des Modèles de Langage à Grande Échelle (LLMs) avec la
précision des bases de données vectorielles. Elle utilise des
données externes pour fournir des informations précises et
à jour dans ses réponses.
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.1. RAG : Élever les LLMs
avec précision et
perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
31. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
31
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.2. Gen AI in action in Platform Engineering
RAG : Comment ça marche ?
Comment fonctionne le RAG?
R A G ?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
32. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
32
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Composants techniques du RAG
Embedding
model
Chunking
Knowledge base
(KB)
Document
embeddings
Vector DB
Embeddings and Vector Stores
33. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
33
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
34. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
34
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
35. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
2.2. Gen AI in action in Platform Engineering
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
35
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.
RAG : Récupération d’information
Embedding
model
Vector DB
Top k
relevant chunks
User
Query Query
embedding
36. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
36
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. Les avantages du RAG
2.3. RAG : Comment ça
marche ?
2.2. Gen AI in action in Platform Engineering
37. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
37
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
38. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
38
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.3. Gen AI in action in Platform Engineering
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
4.
RAG : Génération de réponse
Prompt w/
query + context
Top k
relevant chunks
Response
LLM
39. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
39
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
40. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
2.2. Gen AI in action in Platform Engineering
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
40
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
Composants techniques du RAG
Embedding
model
Chunking
Knowledge base
(KB)
Document
embeddings
Vector DB
Embeddings and Vector Stores
41. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
41
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
42. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
42
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.3. Gen AI in action in Platform Engineering
Les avantages du RAG
Quels sont les avantages du RAG ?
Retrieval .
Augmented .
Generation ?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
43. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
43
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
Avantages et limites du RAG
RAG : Avantages
Efficacité des coûts et
avantages
environnementaux
Informations
personnalisable et
contrôlée
Rester à jour avec les
infos qui évoluent
Précision factuelle
améliorée
2.3. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
44. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
44
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.3. Gen AI in action in Platform Engineering
Avantages et limites du RAG
Quels sont les challenges du RAG ?
Retrieval .
Augmented .
Generation ?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
45. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
45
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
Avantages et limites du RAG
RAG : les challenges
Potentielle surcharge
d'informations
Garanti la fiabilité des
informations récupérées
Complexités et
exigences
computationnelles
2.3. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
46. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
46
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
Amélioration du RAG @IG1
RAG : les axes d'amélioration
Dépasser les limites de
la fenêtre de contexte
grâce au
réordonnancement
Sélection stratégique
d'embeddings et de
réordonnanceurs
Avantages de la mise en
œuvre d'un système
multi-agents dans RAG
2.4. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
47. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
47
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
Maintenant que nous avons échangé sur
le fonctionnement technique de la Gen AI,
comment comptons-nous utiliser la Gen AI
au sein d’Iguane Solutions?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
48. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
48
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
49. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
49
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
Mise en application de la Gen AI : Documentation clients
Création du RAG avec les données nécessaires
Customers Knowledge
bases (KB)
Vector DB
Iguane Knowledge bases
(KB)
Embedding
50. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
50
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
Mise en application de la Gen AI : Documentation clients
Utilisation de cette Gen AI à plusieurs fins
RAG
Permet au personnel
d'astreinte de consulter la
Gen AI pour obtenir des
conseils sur les plateformes
des clients avant de réaliser
une opération.
Permet aux clients
d'interroger la Gen AI pour
obtenir des informations
sur leurs plateformes.
51. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
51
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
52. Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
52
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1 : plateformes LLM managées disponibles dès Q1 2024 @IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Nous mettons en place des
infrastructures managées pour l’IA
des Q1 2024 disponibles
pour l’ensemble de nos clients!
GEN AI