Démarrez avec le chat à l’aide de votre propre exemple de données pour Python
Cet article vous montre comment déployer et exécuter le chat avec votre propre exemple de données pour Python. Cet exemple met en œuvre une application de chat utilisant Python, Azure OpenAI Service et la RAG (Génération augmentée de récupération) dans la Recherche Azure AI pour obtenir des réponses sur les avantages sociaux d’une entreprise fictive. L’application est amorcée par des fichiers PDF comprenant le guide des employés, un document sur les avantages sociaux et une liste des rôles et des attentes de l’entreprise.
En suivant les instructions de cet article, vous allez :
- Déployer une application de conversation sur Azure.
- Obtenir des réponses sur les avantages sociaux des employés.
- Modifier les paramètres pour modifier le comportement des réponses.
Une fois cette procédure terminée, vous pouvez commencer à modifier le nouveau projet avec votre code personnalisé.
Cet article fait partie d’un ensemble d’articles montrant comment créer une application de chat en utilisant Azure OpenAI Service et la Recherche Azure AI.
Vous trouvez ci-dessous d’autres articles de cette collection :
Remarque
Cet article utilise un ou plusieurs modèles d’application IA comme base pour les exemples et les conseils qu’il contient. Les modèles d’application IA vous fournissent des implémentations de référence bien gérées et faciles à déployer, qui constituent un point de départ de qualité pour vos applications IA.
Vue d’ensemble de l’architecture
Une architecture simple de l’application de conversation est illustrée dans le diagramme suivant :
Les principaux composants de l’architecture sont les suivants :
- Une application web pour héberger l’expérience de conversation interactive.
- Ressource sur la Recherche Azure AI pour obtenir des réponses à partir de vos propres données.
- Un Azure OpenAI Service pour fournir :
- Des mots clés pour améliorer la recherche sur vos propres données.
- Des réponses du modèle OpenAI.
- Incorporations à partir du modèle ada
Coût
La plupart des ressources de cette architecture utilisent un niveau tarifaire de base ou de consommation. Le niveau tarifaire Consommation est basée sur l’utilisation, ce qui signifie que vous payez uniquement ce que vous utilisez. Il y aura un coût pour terminer cet article, mais il sera minimal. Lorsque vous avez fini de suivre les instructions de l’article, vous pouvez supprimer les ressources pour arrêter d’encourir des frais.
En savoir plus sur les coûts dans l’exemple de dépôt.
Prérequis
Un environnement de conteneur de développement est disponible avec toutes les dépendances requises pour terminer cet article. Vous pouvez exécuter le conteneur de développement dans GitHub Codespaces (dans un navigateur) ou localement à l’aide de Visual Studio Code.
Pour suivre les instructions de cet article, vous devez disposer des éléments suivants :
- Un abonnement Azure - En créer un gratuitement
- Autorisations de compte Azure : votre compte Azure doit disposer d’autorisations Microsoft.Authorization/roleAssignments/write, telles que Administrateur de l’accès utilisateur ou Propriétaire.
- Accès accordé à Azure OpenAI dans l’abonnement Azure souhaité. L’accès à ce service n’est accordé qu’à l’application. Vous pouvez demander l’accès à Azure OpenAI en complétant le formulaire à l’adresse https://aka.ms/oai/access. Ouvrez un problème sur ce dépôt pour nous contacter si vous rencontrez un problème.
- GitHub
Environnement de développement ouvert
Commencez maintenant par un environnement de développement sur lequel toutes les dépendances sont installées pour terminer cet article.
GitHub Codespaces exécute un conteneur de développement géré par GitHub avec Visual Studio Code pour le web comme interface utilisateur. Pour un environnement de développement le plus simple, utilisez GitHub Codespaces pour disposer des outils de développement et des dépendances appropriés préinstallés pour terminer cet article.
Important
Tous les comptes GitHub peuvent utiliser codespaces pendant jusqu’à 60 heures gratuites chaque mois avec 2 instances principales. Pour plus d’informations, consultez Le stockage mensuel inclus et les heures de cœur GitHub Codespaces.
Démarrez le processus pour créez un environnement GitHub Codespace sur la branche
main
du référentiel GitHubAzure-Samples/azure-search-openai-demo
.Cliquez avec le bouton droit sur le bouton suivant, puis sélectionnez Ouvrir le lien dans les nouvelles fenêtres pour que l’environnement de développement et la documentation soient disponibles en même temps.
Dans la page Créer un codespace , passez en revue les paramètres de configuration du codespace, puis sélectionnez Créer un codespace
Attendez que le codespace démarre. Ce processus de démarrage peut prendre quelques minutes.
Dans le terminal en bas de l’écran, connectez-vous à Azure avec Azure Developer CLI.
azd auth login
Copiez le code à partir du terminal, puis collez-le dans un navigateur. Suivez les instructions pour vous authentifier avec votre compte Azure.
Les tâches restantes de cet article s’effectuent dans ce conteneur de développement.
Déployer et exécuter
L’exemple de référentiel contient tous les fichiers de code et de configuration dont vous avez besoin pour déployer une application de conversation sur Azure. Les étapes suivantes vous guident tout au long du processus de déploiement de l’exemple sur Azure.
Déployer une application de conversation sur Azure
Important
Les ressources Azure créées dans cette section entraînent des coûts immédiats, principalement de la ressource Recherche Azure AI. Ces ressources peuvent entraîner des coûts même si vous interrompez la commande avant la fin de exécution.
Exécutez la commande Azure Developer CLI suivante pour provisionner les ressources Azure et déployer le code source :
azd up
Si vous êtes invité à saisir un nom d’environnement, veillez à ce qu’il soit court et en minuscules. Par exemple :
myenv
. Il est utilisé comme partie du nom du groupe de ressources.Lorsque vous y êtes invité, sélectionnez un abonnement dans lequel créer les ressources.
Lorsque vous êtes invité à sélectionner un emplacement pour la première fois, sélectionnez un emplacement près de vous. Cet emplacement est utilisé pour la plupart des ressources, y compris l’hébergement.
Si l’on vous demande de choisir un emplacement pour le modèle OpenAI ou pour la ressource Document Intelligence, sélectionnez l’emplacement le plus proche. Si le premier emplacement choisi est également disponible, sélectionnez-le.
Avant de continuer, attendez 5 ou 10 minutes après le déploiement de l’application.
Une fois l’application déployée avec succès, une URL s’affiche dans le terminal.
Sélectionnez cette URL étiquetée
(✓) Done: Deploying service webapp
pour ouvrir l’application de conversation dans un navigateur.
Utiliser l’application de conversation pour obtenir des réponses à partir de fichiers PDF
L’application de conversation est préchargée avec les informations sur les avantages sociaux des employés à partir de fichiers PDF. Vous pouvez utiliser l’application de conversation pour poser des questions sur les avantages sociaux. Les étapes suivantes vous guident tout au long du processus d’utilisation de l’application de conversation. Vos réponses peuvent varier en fonction de la mise à jour des modèles sous-jacents.
Dans le navigateur, sélectionnez ou saisissez What happens in a performance review? (Que se passe-t-il lors d’un entretien d’évaluation ?) dans la zone de texte du chat.
Dans la réponse, sélectionnez une citation.
Dans le volet de droite, utilisez les onglets pour comprendre comment la réponse a été générée.
Onglet Description Processus de réflexion Il s’agit d’un script des interactions dans la conversation instantanée. Vous pouvez afficher l’invite système ( content
) et votre question utilisateur (content
).Contenu de support Cela inclut les informations permettant de répondre à votre question et le document source. Le nombre de citations du document source est noté dans les paramètres du développeur. La valeur par défaut est 3. Citation Cela permet d’afficher la page originale qui contient la citation. Lorsque vous avez terminé, sélectionnez à nouveau l’onglet sélectionné pour fermer le volet.
Utiliser les paramètres de l’application de conversation pour modifier le comportement des réponses
L’intelligence de la conversation est déterminée par le modèle OpenAI et les paramètres utilisés pour interagir avec le modèle.
Setting | Description |
---|---|
Remplacer le modèle d’invite | Remplace l’invite utilisée pour générer la réponse en fonction de la question et des résultats de la recherche. |
Température | Définit la température de la requête sur le LLM qui génère la réponse. Des températures plus élevées entraînent des réponses plus créatives, mais dont les bases peuvent être moins solides. |
Seed | Définit une valeur de départ pour améliorer la reproductibilité des réponses du modèle. La valeur de départ peut être n’importe quel entier. |
Score de recherche minimal | Définit un score minimal pour les résultats de recherche provenant de la Recherche Azure AI. La plage de scores dépend de l’utilisation de vecteurs hybrides (par défaut), de vecteurs uniquement ou de texte seul. |
Score de reranker minimal | Définit un score minimal pour les résultats de la recherche provenant du reranker sémantique. Le score est toujours compris entre 0 et 4. Plus le score est élevé, plus le résultat est sémantiquement pertinent par rapport à la question. |
Récupérer ces nombreux résultats de recherche | Définit le nombre de résultats de recherche à récupérer à partir de la Recherche Azure AI. Un plus grand nombre de résultats peut augmenter la probabilité de trouver la bonne réponse, mais peut conduire à ce que le modèle se « perde au milieu ». Vous pouvez voir ces sources renvoyées dans les onglets Thought process (Mode de pensée) et Supporting content (Contenu de support) de la citation. |
Catégorie exclue | Spécifie une catégorie à exclure des résultats de la recherche. Aucune catégorie n’est utilisée dans le jeu de données par défaut. |
Utiliser le ranker sémantique pour la récupération | Active le classeur sémantique de la Recherche Azure AI, un modèle qui reclasse les résultats de recherche en fonction de la similarité sémantique avec la requête de l’utilisateur. |
Utiliser des légendes sémantiques | Envoie des légendes sémantiques au LLM au lieu du résultat de recherche complet. Une légende sémantique est extraite d’un résultat de recherche pendant le processus de classement sémantique. |
Suggérer des questions de suivi | Demande au LLM de suggérer des questions de suivi en fonction de la requête de l’utilisateur. |
Mode de récupération | Définit le mode de récupération pour la requête de la Recherche Azure AI. Vectors + Text (Hybrid) [Vecteurs + Texte (Hybride)] utilise une combinaison de recherche vectorielle et de recherche en texte intégral, Vectors (Vecteurs) utilise uniquement la recherche vectorielle et Text (Texte) utilise uniquement la recherche en texte intégral. Le mode hybride est généralement optimal. |
Diffuser en continu les réponses de saisie semi-automatique du chat | Diffuse en continu la réponse à l’interface utilisateur du chat telle qu’elle est générée. |
Les étapes suivantes vous guident tout au long du processus de modification des paramètres.
Dans le navigateur, sélectionnez l’onglet Developer Settings (Paramètres du développeur).
Cochez la case Questions de suivi suggérées et posez la même question.
What happens in a performance review?
Le chat a renvoyé des suggestions de questions de suivi telles que les suivantes :
1. What is the frequency of performance reviews? 2. How can employees prepare for a performance review? 3. Can employees dispute the feedback received during the performance review?
Sous l’onglet Paramètres, désélectionnez Utiliser le ranker sémantique pour la récupération.
Poser à nouveau la même question ?
What happens in a performance review?
Quelle est la différence dans les réponses ?
Avec le classeur sémantique : lors d’un entretien d’évaluation chez Contoso Electronics, les employés auront l’occasion de discuter de leurs réussites et de leurs difficultés sur leur lieu de travail (1). L’entretien fournira des retours positifs et constructifs afin d’aider les employés à se développer et à évoluer dans leurs fonctions (1). L’employé recevra un résumé écrit de l’évaluation des performances, qui comprendra un score de performances, un retour et ses objectifs pour l’année à venir (1). L’entretien d’évaluation est un dialogue bidirectionnel entre les managers et les employés (1).
Sans le classeur sémantique : lors d’un entretien d’évaluation chez Contoso Electronics, les employés auront l’occasion de discuter de leurs réussites et de leurs difficultés sur leur lieu de travail. Des retours positifs et constructifs sont fournis pour aider les employés à se développer et à évoluer dans leurs fonctions (1). Un résumé écrit de l’entretien d’évaluation est remis, y compris un score de performances, des retours et des objectifs pour l’année à venir. L’entretien est un dialogue bidirectionnel entre les managers et les employés (1).
Nettoyer les ressources
Nettoyage des ressources Azure
Les ressources Azure créées dans cet article sont facturées dans votre abonnement Azure. Si vous pensez ne plus avoir besoin de ces ressources, supprimez-les pour éviter des frais supplémentaires.
Exécutez la commande Azure Developer CLI suivante pour supprimer les ressources Azure et le code source :
azd down --purge --force
Les commutateurs fournissent :
purge
: vide immédiatement les ressources supprimées. Cela vous permet de réutiliser le TPM Azure OpenAI.force
: la suppression se produit de manière silencieuse, sans exiger le consentement de l’utilisateur.
Nettoyer GitHub Codespaces
La suppression de l’environnement GitHub Codespaces vous permet d’optimiser le nombre d’heures gratuites par cœur que vous obtenez pour votre compte.
Important
Pour plus d’informations sur les droits de votre compte GitHub, consultez GitHub Codespaces mensuel inclus stockage et heures principales.
Connectez-vous au tableau de bord GitHub Codespaces (https://github.com/codespaces).
Localisez vos codespaces en cours d’exécution provenant du référentiel GitHub
Azure-Samples/azure-search-openai-demo
.Ouvrez le menu contextuel du codespace, puis sélectionnez Supprimer.
Obtenir de l’aide
Cet exemple de référentiel propose des informations de résolution des problèmes.
Si votre problème n’est pas résolu, consignez votre problème dans les Problèmes du référentiel.
Étapes suivantes
- Obtenir le code source de l’exemple utilisé dans cet article
- Créer une application de chat avec Azure OpenAI Architecture de solution recommandée
- Contrôle d’accès dans les applications d’IA générative avec Recherche Azure AI
- Créer une solution OpenAI prête pour l’entreprise avec Gestion des API Azure
- Recherche vectorielle plus performante avec des fonctionnalités de récupération et de classement hybrides