Modèles d’application d’IA
Cette section de la documentation vous présente les modèles d’applications AI et les articles associés qui utilisent ces modèles pour démontrer comment effectuer des tâches clés de développement. Les modèles d’application IA vous fournissent des implémentations de référence bien gérées et faciles à déployer, qui constituent un point de départ de qualité pour vos applications IA.
Il existe deux catégories de modèles d’application IA, les blocs de construction et les solutions de bout en bout. Les sections suivantes présentent certains des principaux modèles dans chaque catégorie pour le langage de programmation que vous avez sélectionné en haut de cet article. Pour parcourir une liste plus complète, y compris ces modèles et d’autres modèles, consultez les modèles d’application IA dans la galerie de modèles d’application IA.
Blocs de construction
Les blocs de construction sont des exemples à plus petite échelle qui se concentrent sur des scénarios et des tâches spécifiques. La plupart des blocs de construction démontrent des fonctionnalités qui tirent parti de la solution de bout en bout pour une application de chat utilisant vos propres données.
Bloc de construction | Description |
---|---|
Équilibrer la charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Bloc de construction | Description |
---|---|
Configurer la sécurité des documents pour l’application de chat | Lorsque vous créez une application de chat en utilisant le modèle RAG avec vos propres données, assurez-vous que chaque utilisateur reçoit une réponse basée sur ses autorisations. Un utilisateur autorisé doit avoir accès aux réponses contenues dans les documents de l’application de chat. Un utilisateur non autorisé ne devrait pas avoir accès aux réponses provenant de documents sécurisés qu’il n’est pas autorisé à voir. |
Évaluer les réponses de l’application de chat | Apprenez comment évaluer les réponses d’une application de chat par rapport à un ensemble de réponses correctes ou idéales (connues sous le nom de vérité de base). Chaque fois que vous modifiez votre application de chat d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser dès aujourd’hui pour faciliter l’exécution des évaluations. |
Équilibrer la charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Équilibre de charge avec API Management | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure API Management pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison. |
Tester la charge de l’application de chat Python avec Locust | Découvrez le processus pour effectuer un test de charge sur une application de chat Python utilisant le modèle RAG avec Locust, un outil de test de charge open-source populaire. L’objectif principal du test de charge est de s’assurer que la charge attendue sur votre application de chat ne dépasse pas le quota actuel de Transactions Par Minute (TPM) d’Azure OpenAI. En simulant le comportement des utilisateurs sous une charge lourde, vous pouvez identifier les goulets d’étranglement potentiels et les problèmes de scalabilité dans votre application. |
Sécuriser votre application IA avec l’authentification sans clé | Découvrez le processus de sécurisation de votre application de conversation Python Azure OpenAI avec l’authentification sans clé. Les demandes d’application adressées à la plupart des services Azure doivent être authentifiées avec des connexions sans clé ou sans mot de passe. L’authentification sans clé offre des avantages de gestion et de sécurité améliorés sur la clé de compte, car il n’existe aucune clé (ou chaîne de connexion) à stocker. |
Bloc de construction | Description |
---|---|
Équilibrer la charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Bloc de construction | Description |
---|---|
Évaluer les réponses de l’application de chat | Apprenez comment évaluer les réponses d’une application de chat par rapport à un ensemble de réponses correctes ou idéales (connues sous le nom de vérité de base). Chaque fois que vous modifiez votre application de chat d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser dès aujourd’hui pour faciliter l’exécution des évaluations. |
Équilibrer la charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Équilibre de charge avec API Management | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure API Management pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison. |
Solutions de bout en bout
Les solutions de bout en bout sont des exemples de référence complets comprenant documentation, code source et déploiement, vous permettant de les utiliser et de les étendre à vos propres fins.
Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec .NET
Ce modèle est une solution complète de bout en bout démontrant le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Azure AI Search pour la récupération et les grands modèles de langage Azure OpenAI pour alimenter des expériences de type ChatGPT et Questions & Réponses.
Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour .NET. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-demo-csharp.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps Azure Functions |
Azure OpenAI Vision par ordinateur Azure Azure Form Recognizer Recherche Azure AI Stockage Azure |
GPT 3.5 Turbo GPT 4.0 |
Contoso chat retail Copilot avec .NET et Semantic Kernel
Ce modèle implémente Contoso Outdoors, un magasin conceptuel spécialisé dans l’équipement de plein air pour les amateurs de randonnée et de camping. Ce magasin virtuel améliore l’engagement des clients et le soutien aux ventes grâce à un agent de chat intelligent. Cet agent est alimenté par le modèle de génération augmentée par récupération (RAG) dans la pile Microsoft Azure AI, enrichi avec Semantic Kernel et le support Prompty.
Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub contoso-chat-csharp-prompty.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps |
Azure OpenAI Microsoft Entra ID Identité managée Azure Azure Monitor Recherche Azure AI Azure AI Studio Azure SQL Stockage Azure |
GPT 3.5 Turbo GPT 4.0 |
Automatisation des processus avec conversion de la parole en texte et résumé avec .NET et GPT 3.5 Turbo
Ce modèle est une solution d’automatisation des processus qui reçoit des problèmes signalés par les travailleurs de terrain et de l’atelier dans une entreprise appelée Contoso Manufacturing, une entreprise de fabrication de batteries de voiture. Les problèmes sont partagés par les travailleurs soit en direct via l’entrée du microphone, soit pré-enregistrés sous forme de fichiers audio. La solution traduit l’entrée audio de la parole en texte, puis utilise un LLM et Prompty ou Promptflow pour résumer le problème et renvoyer les résultats dans un format spécifié par la solution.
Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub summarization-openai-csharp-prompty.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps | Reconnaissance vocale Résumé Azure OpenAI |
GPT 3.5 Turbo |
Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec Python
Ce modèle est une solution complète de bout en bout démontrant le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Recherche d’IA Azure pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences de type ChatGPT et questions-réponses (Q&A).
Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour Python. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-demo.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps | Azure OpenAI Azure AI Search Stockage Blob Azure Azure Monitor Azure Document Intelligence |
GPT 3.5 Turbo GPT 4 GPT 4o GPT 4o-mini |
Copilote d’écriture créative multimodale avec DALL-E
Ce modèle est une solution d’écriture créative multi-agent pour aider les utilisateurs à rédiger des articles. Il démontre comment créer et travailler avec des agents AI pilotés par Azure OpenAI.
Il inclut :
- Application Flask qui prend un article et une instruction d’un utilisateur.
- Agent de recherche qui utilise l’API Recherche Bing pour rechercher l’article.
- Agent de produit qui utilise Azure AI Search pour effectuer une recherche sémantique de similarité pour les produits connexes à partir d’un magasin vectoriel.
- Agent d’écriture pour combiner les informations de recherche et de produit dans un article utile.
- Agent d’éditeur pour affiner l’article présenté à l’utilisateur.
Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub agent-openai-python-prompty.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Registry Azure Kubernetes |
Azure OpenAI Recherche Bing Identité managée Azure Azure Monitor Recherche Azure AI Azure AI Studio |
GPT 3.5 Turbo GPT 4.0 DALL-E |
Contoso Chat Retail Copilot avec AI Studio
Ce modèle implémente Contoso Chat - une solution copilote de vente au détail pour Contoso Outdoor qui utilise un modèle de conception de génération augmentée de récupération pour mettre en place les réponses de chatbot dans les données produit et client du détaillant. Les clients peuvent poser des questions à partir du site web en langage naturel et obtenir des réponses pertinentes avec des recommandations potentielles basées sur leur historique d’achat , avec des pratiques d’IA responsables pour garantir la qualité et la sécurité de la réponse.
Ce modèle illustre le workflow de bout en bout (GenAIOps) pour la création d’un code copilote basé sur RAG avec Azure AI et Prompty. En explorant et en déployant cet exemple, apprenez à :
- Ideate et itérer rapidement sur les prototypes d’application à l’aide de Prompty
- Déployer et utiliser des modèles Azure OpenAI pour la conversation, les incorporations et l’évaluation
- Utiliser Azure AI Search (index) et Azure Cosmos DB (bases de données) pour vos données
- Évaluer les réponses de conversation pour la qualité à l’aide des flux d’évaluation assistés par l’IA
- Héberger l’application en tant que point de terminaison FastAPI déployé sur Azure Container Apps
- Provisionner et déployer la solution à l’aide de l’interface CLI pour développeurs Azure
- Prendre en charge les pratiques d’IA responsable avec la sécurité du contenu et les évaluations
Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub contoso-chat.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps |
Azure OpenAI Recherche Azure AI Azure AI Studio Prompty Azure Cosmos DB |
GPT 3.5 Turbo GPT 4.0 Runtime d’intégration géré (MIR) |
Automatisation des processus avec conversion de la parole en texte et résumé avec AI Studio
Ce modèle crée une application web qui permet aux travailleurs d’une entreprise appelée Contoso Manufacturing de signaler des problèmes via du texte ou de la parole. L’entrée audio est traduite en texte, puis résumée pour mettre en évidence des informations importantes et le rapport est envoyé au service approprié.
Pour accéder au code source et lire en détail les détails sur le modèle, consultez le dépôt GitHub summarization-openai-python-promptflow .
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps | Azure AI Studio Service de conversion de la parole en texte Prompty Runtime d’intégration géré (MIR) |
GPT 3.5 Turbo |
Copilote analytique de l’API Assistant avec Python et Azure AI Studio
Ce modèle est une API d’assistant pour discuter avec des données tabulaires et effectuer des analyses en langage naturel.
Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub assistant-data-openai-python-promptflow.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Machine Learning Service | Recherche Azure AI Azure AI Studio Runtime d’intégration géré (MIR) Azure OpenAI |
GPT 3.5 Turbo GPT 4 |
Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec Java
Ce modèle est une solution complète de bout en bout qui démontre le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Azure AI Search pour la récupération et les grands modèles de langage Azure OpenAI pour alimenter des expériences de type ChatGPT et Questions & Réponses.
Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour Java. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-demo-java.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure App Service Azure Container Apps Azure Kubernetes Service |
Azure OpenAI Recherche Azure AI Stockage Azure Azure Monitor |
Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec JavaScript
Ce modèle est une solution complète de bout en bout démontrant le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Azure AI Search pour la récupération et les grands modèles de langage Azure OpenAI pour alimenter des expériences de type ChatGPT et Questions & Réponses.
Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour JavaScript. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-javascript.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps Azure Static Web Apps |
Azure OpenAI Recherche Azure AI Stockage Azure Azure Monitor |
text-embedding-ada-002 |
Frontend de chat Azure OpenAI
Ce modèle est un composant web de chat OpenAI minimal qui peut être connecté à n’importe quelle implémentation backend en tant que client.
Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-openai-chat-frontend.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Static Web Apps | Azure AI Search Azure OpenAI |
GPT 3.5 Turbo GPT4 |
Chat AI Serverless avec RAG utilisant LangChain.js
Le modèle est un chatbot AI serverless avec génération augmentée par récupération utilisant LangChain.js et Azure qui utilise un ensemble de documents d’entreprise pour générer des réponses aux requêtes des utilisateurs. Il utilise une entreprise fictive appelée Contoso Real Estate, et l’expérience permet à ses clients de poser des questions de support sur l’utilisation de ses produits. Les données d’exemple incluent un ensemble de documents qui décrit ses conditions d’utilisation, sa politique de confidentialité et un guide de support.
Pour apprendre comment déployer et exécuter ce modèle, veuillez consulter la section Démarrer avec le chat AI Serverless avec RAG utilisant LangChain.js. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub serverless-chat-langchainjs.
Apprenez comment déployer et exécuter ce modèle de référence JavaScript.
Ce modèle démontre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Static Web Apps Azure Functions |
Azure AI Search Azure OpenAI Azure Cosmos DB Stockage Azure Identité managée Azure |
GPT4 Mistral Ollama |