Domande frequenti sul Servizio OpenAI di Azure

Se non è possibile trovare le risposte alle domande in questo documento e occorre comunque assistenza, consultare la Guida alle opzioni di supporto per i Servizi di Azure AI. Azure OpenAI fa parte dei Servizi di Azure AI.

Dati e privacy

Utilizzate i dati della mia azienda per il training di qualche modello?

Azure OpenAI non usa i dati dei clienti per ripetere il training dei modelli. Per altre informazioni, vedere la Guida ai dati, alla privacy e alla sicurezza di Azure OpenAI.

Generali

Azure OpenAI supporta le intestazioni API personalizzate? Si accodano intestazioni personalizzate aggiuntive alle richieste API e si verificano errori HTTP 431.

Le API correnti consentono fino a 10 intestazioni personalizzate, che vengono passate attraverso la pipeline e restituite. Attualmente, alcuni clienti hanno superato questo numero di intestazioni, con la generazione di errori HTTP 431. Non esiste alcuna soluzione per questo errore, se non ridurre il volume dell'intestazione. Nelle versioni future dell'API non si passerà più tramite intestazioni personalizzate. È consigliabile che i clienti non dipendano dalle intestazioni personalizzate nelle architetture di sistema future.

Azure OpenAI funziona con la libreria Python più recente rilasciata da OpenAI (versione>=1.0)?

Azure OpenAI è supportato dalla versione più recente della libreria Python OpenAI (versione>=1.0). È tuttavia importante notare che la migrazione della codebase usando openai migrate non è supportata e non funziona con il codice destinato ad Azure OpenAI.

Non riesco a trovare GPT-4 Turbo Preview, dov'è?

GPT-4 Turbo Preview è il modello gpt-4 (1106-preview). Per distribuire questo modello, in Distribuzioni selezionare il modello gpt-4. Per la versione del modello selezionare anteprima 1106. Per verificare le aree disponibili per questo modello, vedere la pagina modelli.

Azure OpenAI supporta GPT-4?

Azure OpenAI supporta i modelli GPT-4 più recenti. Supporta sia GPT-4 che GPT-4-32K.

Come sono le funzionalità di Azure OpenAI rispetto a quelle di OpenAI?

Il Servizio OpenAI di Azure offre ai clienti un'intelligenza artificiale linguistica avanzata con i modelli OpenAI GPT-3, Codex e DALL-E con la sicurezza e l'impegno aziendale di Azure. OpenAI di Azure sviluppa le API unitamente a OpenAI, garantendo la compatibilità e una transizione uniforme da una all'altra.

Con OpenAI di Azure i clienti accedono alle funzionalità di sicurezza di Microsoft Azure eseguendo gli stessi modelli di OpenAI.

Azure OpenAI supporta le reti virtuali e gli endpoint privati?

Sì, come parte di Servizi di Azure AI, Azure OpenAI supporta le reti virtuali e gli endpoint privati. Per altre informazioni, consultare il materiale sussidiario della rete virtuale di Servizi di Azure AI.

I modelli GPT-4 supportano attualmente l'input dell'immagine?

No, GPT-4 è stato progettato da OpenAI per essere multimodale, ma attualmente sono supportati solo l'input e l'output di testo.

Come si fa a richiedere nuovi casi d'uso?

In precedenza, il processo di aggiunta di nuovi casi d'uso richiedeva ai clienti di iscriversi nuovamente al servizio. Verrà ora rilasciato un nuovo processo che consente di aggiungere rapidamente nuovi casi d'uso all'uso del servizio. Questa operazione segue il processo di Accesso limitato stabilito in Servizi di Azure AI. I clienti esistenti possono confermare qui tutti i nuovi casi d'uso. Si noti che questa operazione è necessaria ogni volta che si vuole usare il servizio per un nuovo caso d'uso per il quale non è stata fatta originariamente richiesta.

Quando si provano a usare gli incorporamenti viene visualizzato l'errore "InvalidRequestError: Troppi input. Il numero massimo di input è 16." Come lo risolvo?

Questo errore si verifica in genere quando si tenta di inviare un batch di testo da incorporare in una singola richiesta API come matrice. Attualmente Azure OpenAI supporta solo matrici di incorporamenti con più input per il modello text-embedding-ada-002 versione 2. Questa versione del modello supporta una matrice costituita da un massimo di 16 input per ogni richiesta API. La matrice può avere una lunghezza massima di 8,191 token quando si usa il modello text-embedding-ada-002 (versione 2).

Dove è possibile trovare le informazioni su modi migliori per usare Azure OpenAI e ottenere le risposte desiderate dal servizio?

Vedere l’Introduzione all'ingegneria dei prompt. Sebbene questi modelli siano potenti, il loro comportamento è anche molto sensibile ai prompt ricevuti dall’utente. Ciò rende la creazione di un prompt una competenza importante da sviluppare. Dopo aver completato l'introduzione, vedere l'articolo sui messaggi di sistema.

All'account guest è stato concesso l'accesso a una risorsa OpenAI di Azure, ma non è possibile accedere a tale risorsa in Azure AI Studio. Come si abilita l'accesso?

Questo comportamento è previsto quando si usa l'esperienza di accesso predefinita per Azure AI Studio.

Per accedere ad Azure AI Studio da un account guest a cui è stato concesso l'accesso a una risorsa OpenAI di Azure:

  1. Aprire una sessione privata del browser, quindi passare a https://ai.azure.com.
  2. Anziché immettere immediatamente le credenziali dell'account guest, selezionare Sign-in options
  3. Selezionare ora Accedi a un'organizzazione
  4. Immettere il nome di dominio dell'organizzazione che ha concesso all'account guest l'accesso alla risorsa di Azure OpenAI.
  5. Accedere ora con le credenziali dell'account guest.

A questo momento dovrebbe essere possibile accedere alla risorsa tramite Azure AI Studio.

In alternativa, se si è connessi al portale di Azure dal riquadro Panoramica della risorsa OpenAI di Azure, è possibile selezionare Vai ad Azure AI Studio per accedere automaticamente con il contesto aziendale appropriato.

Quando chiedo a GPT-4 quale modello è in esecuzione, mi dice che è in esecuzione GPT-3. Perché succede questo?

I modelli di Azure OpenAI (incluso GPT-4) non riescono a identificare correttamente il comportamento previsto del modello in esecuzione.

Perché si verifica questo problema?

In definitiva, il modello esegue la previsione del prossimo token in risposta alla domanda. Il modello non ha alcuna possibilità nativa di eseguire query sulla versione del modello attualmente in esecuzione per rispondere alla domanda. Per rispondere a questa domanda, è sempre possibile passare a Distribuzioni> di gestione>di Azure AI Studio>e consultare la colonna del nome del modello per verificare quale modello è attualmente associato a un determinato nome di distribuzione.

Le domande "Quale modello è in esecuzione?" o "Qual è il modello più recente di OpenAI?" producono risultati di qualità simili per chiedere al modello quale sarà il meteo oggi. Potrebbe restituire il risultato corretto, ma per puro caso. In modo autonomo, il modello non dispone di informazioni reali diverse da quelle che fanno parte del training e dei dati di training. Nel caso di GPT-4, a partire da agosto 2023 i dati di training sottostanti vanno solo fino a settembre 2021. GPT-4 non è stato rilasciato fino a marzo 2023, quindi, a meno che OpenAI non rilasci una nuova versione con dati di training aggiornati o una nuova versione ottimizzata per rispondere a queste domande specifiche, è previsto che GPT-4 risponda che GPT-3 è la versione più recente del modello rilasciato da OpenAI.

Se si volesse aiutare un modello basato su GPT a rispondere in modo accurato alla domanda "quale modello si sta eseguendo?", sarebbe necessario fornire tali informazioni al modello tramite tecniche come progettazione prompt del messaggio di sistema del modello, Recupero di generazione aumentata (RAG) che è la tecnica usata da Azure OpenAI sui dati in cui le informazioni aggiornate vengono inserite nel messaggio di sistema in fase di query o tramite l’ottimizzazione in cui è possibile ottimizzare versioni specifiche del modello per rispondere a tale domanda in un determinato modo in base alla versione del modello.

Per altre informazioni sul training dei modelli GPT e sul lavoro, è consigliabile guardare ildiscorso di Andrej Karpathy dalla Build 2023 sullo stato di GPT.

Ho chiesto al modello quando la conoscenza è terminata e mi ha dato una risposta diversa da quella presente nella pagina del modello di Azure OpenAI. Perché succede questo?

Si tratta di un comportamento previsto. I modelli non sono in grado di rispondere a domande su se stessi. Se si vuole sapere quando si trova il limite delle conoscenze per i dati di training del modello, vedere la pagina dei modelli.

Ho posto al modello una domanda su un fatto accaduto di recente prima del limite delle conoscenze e ha sbagliato la risposta. Perché succede questo?

Si tratta di un comportamento previsto. Per prima cosa non esiste alcuna garanzia che ogni evento recente faccia parte dei dati di training del modello. E anche quando le informazioni fanno parte dei dati di training, senza usare tecniche aggiuntive come Recupero di generazione aumentata (RAG) per aiutare le risposte del modello a verificarsi sempre una possibilità di risposte non in primo piano. Sia la funzione Azure OpenAI che Bing Chat utilizzano i modelli Azure OpenAI combinati con la generazione aumentata di recupero per aiutare a migliorare le risposte del modello di base.

La frequenza con cui una determinata informazione è apparsa nei dati di training può influire anche sulla probabilità che il modello risponda in un determinato modo.

Chiedere al modello GPT-4 Turbo Preview più recente qualcosa che è cambiato più di recente come "Chi è il primo ministro della Nuova Zelanda?", è probabile che la risposta creata Jacinda Ardern. Tuttavia, chiedendo al modello "Quando Jacinda Ardern si è dimesso da primo ministro?" Tende a fornire una risposta accurata che dimostra la conoscenza dei dati di training almeno fino a gennaio 2023.

Pertanto, mentre è possibile eseguire il probe del modello con domande per indovinare il limite delle informazioni sui dati di training, la pagina del modello è la posizione migliore per controllare il limite delle conoscenze di un modello.

Dove si accede alle informazioni sui prezzi per i modelli legacy, che non sono più disponibili per le nuove distribuzioni?

Le informazioni sui prezzi legacy sono disponibili tramite un file PDF scaricabile. Per tutti gli altri modelli, vedere la pagina dei prezzi ufficiale.

Come è possibile correggere InternalServerError - 500 - Impossibile creare il completamento perché l'output Unicode generato dal modello non è valido?

È possibile ridurre al minimo l'occorrenza di questi errori riducendo la temperatura dei prompt a meno di 1 e assicurandosi di usare un client con logica di ripetizione dei tentativi. La ripetizione della richiesta comporta spesso una risposta con esito positivo.

Sono stati rilevati addebiti associati a chiamate API che non sono state completate con il codice di stato 400. Perché le chiamate API non riuscite generano un addebito?

Se il servizio esegue l'elaborazione, verrà addebitato anche se il codice di stato non riesce (non 200). Esempi comuni di questo tipo sono, un errore 400 a causa di un filtro di contenuto o di un limite di input o di un errore 408 a causa di un timeout. Verranno applicati addebiti anche quando un status 200 viene ricevuto un finish_reason di content_filter. In questo caso, il prompt non ha avuto problemi, ma è stato rilevato che il completamento generato dal modello viola le regole di filtro dei contenuti che determinano il completamento filtrato. Se il servizio non esegue l'elaborazione, non verrà addebitato alcun addebito. Ad esempio, un errore 401 dovuto all'autenticazione o un errore 429 dovuto al superamento del limite di velocità.

Ottenere l'accesso al Servizio OpenAI di Azure

Come si accede ad Azure OpenAI?

Per accedere alla maggior parte dei modelli Azure OpenAI non è necessario un modulo di registrazione ad accesso limitato. Per altre informazioni, vedere la pagina accesso limitato di Azure OpenAI.

Altre informazioni e dove porre domande

Dove è possibile trovare informazioni sugli aggiornamenti più recenti di Azure OpenAI?

Per gli aggiornamenti mensili, vedere la pagina delle novità.

Dove è possibile ottenere la formazione per iniziare ad apprendere e sviluppare le proprie competenze in Azure OpenAI?

Dove è possibile pubblicare domande e vedere le risposte alle domande frequenti?

Dove trovare l'assistenza clienti di Azure OpenAI?

Azure OpenAI fa parte dei Servizi di Azure AI. È possibile ottenere informazioni su tutte le opzioni di supporto per i Servizi di Azure AI nella guida alle opzioni di supporto e assistenza.

Modelli e ottimizzazione

Quali sono i modelli disponibili?

Consultare la guida alla disponibilità del modello di OpenAI di Azure.

Come sapere in quale area è disponibile un modello?

Per informazioni sulla disponibilità nell'area, vedere la Guida alla disponibilità del modello OpenAI di Azure.

Quali sono i contratti di servizio (contratti di servizio) in Azure OpenAI?

È disponibile un contratto di servizio di disponibilità per tutte le risorse e un contratto di servizio di latenza per le distribuzioni gestite con provisioning. Per altre informazioni sul contratto di servizio per Servizio OpenAI di Azure, vedere la pagina contratto di servizio per i servizi online.

Come si abilita l'ottimizzazione? La creazione di un modello personalizzato è disattivata in Azure AI Studio.

Per accedere correttamente all'ottimizzazione, è necessario ricoprire il ruolo di Collaboratore OpenAI di Servizi cognitivi. Persino un utente con autorizzazioni di Amministratore del servizio di alto livello avrebbe comunque bisogno di questo account impostato in modo esplicito per accedere all'ottimizzazione. Per altre informazioni, vedere le linee guida per il controllo degli accessi in base al ruolo.

Qual è la differenza tra un modello base e un modello ottimizzato?

Un modello di base è un modello che non è stato personalizzato od ottimizzato per un caso d'uso specifico. I modelli ottimizzati sono versioni personalizzate dei modelli di base, in cui viene eseguito il training dei pesi di un modello in un set univoco di richieste. I modelli ottimizzati consentono di ottenere risultati migliori su un numero maggiore di attività, senza dover fornire esempi dettagliati per l'apprendimento nel contesto come parte della richiesta di completamento. Per altre informazioni, vedere la guida all'ottimizzazione.

Qual è il numero massimo di modelli ottimizzati che è possibile creare?

100

Perché è stata eliminata la distribuzione modello ottimizzata?

Se un modello personalizzato (ottimizzato) viene distribuito per più di 15 giorni durante i quali non vengono effettuati completamenti o chiamate di completamento della chat, la distribuzione viene eliminata automaticamente (e non vengono addebitati ulteriori costi di hosting per tale distribuzione). Il modello personalizzato sottostante rimane disponibile e potrà essere ridistribuito in qualsiasi momento. Per altre informazioni, vedere l'articolo con le procedure.

Come si distribuisce un modello con l'API REST?

Sono attualmente disponibili due API REST diverse che consentono la distribuzione del modello. Per le funzionalità di distribuzione del modello più recenti, ad esempio la possibilità di specificare una versione del modello durante la distribuzione per modelli come text-embedding-ada-002 Versione 2, usare la chiamata API REST di Distribuzione - Creazione o aggiornamento di Servizi cognitivi.

È possibile usare la quota per aumentare il limite massimo di token di un modello?

No, l'allocazione della quota di token al minuto (TPM) non è correlata al limite massimo di token di input di un modello. I limiti dei token di input del modello sono definiti nella tabella dei modelli e non sono interessati dalle modifiche apportate a TPM.

GPT-4 Turbo con Visione

È possibile ottimizzare le funzionalità dell'immagine in GPT-4?

No, al momento non è supportata l'ottimizzazione delle funzionalità di immagine di GPT-4.

È possibile usare GPT-4 per generare immagini?

No, è possibile usare dall-e-3 per generare immagini e gpt-4-vision-preview per comprendere le immagini.

Quale tipo di file è possibile caricare?

Attualmente sono supportati PNG (.png), JPEG (.jpeg e .jpg), WEBP (.webp) e GIF non animate (.gif).

Esiste un limite per le dimensioni dell'immagine che è possibile caricare?

Sì, i caricamenti delle immagini vengono limitati a 20 MB per ogni immagine.

È possibile eliminare un'immagine caricata?

No, l'immagine verrà eliminata automaticamente dopo che è stata elaborata dal modello.

Come funzionano i limiti di velocità per GPT-4 Turbo con Visione?

Le immagini vengono elaborate a livello di token, quindi ogni immagine elaborata viene conteggiata in base al limite di token al minuto (TPM). Per informazioni dettagliate sulla formula usata per determinare il numero di token per ogni immagine, vedere la Sezione Token immagine della panoramica.

GPT-4 Turbo con Visione può comprendere i metadati delle immagini?

No, il modello non riceve i metadati dell'immagine.

Cosa succede se la mia immagine non è chiara?

Se un'immagine è ambigua o poco chiara, il modello farà del suo meglio per interpretarlo. Tuttavia, i risultati potrebbero essere meno accurati. Una buona regola è che se un essere umano medio non riesce a vedere le informazioni in un'immagine alle risoluzioni utilizzate in modalità bassa/alta risoluzione, allora nemmeno il modello può farlo.

Quali sono le limitazioni note di GPT-4 Turbo con Visione?

Vedere la sezione limitazioni della guida ai concetti di GPT-4 Turbo with Visione.

Continuo a ottenere risposte troncate quando uso modelli di visione GPT-4 Turbo. Perché?

Per impostazione predefinita, GPT-4 vision-preview e GPT-4 turbo-2024-04-09 hanno un valore max_tokens pari a 16. A seconda della richiesta, questo valore è spesso troppo basso e può causare risposte troncate. Per risolvere questo problema, passare un valore max_tokens più grande come parte delle richieste API di completamento della chat. Per impostazione predefinita, GPT-4o è 4096 max_tokens.

Assistenti

Archiviare i dati utilizzati nell'API Assistenti?

Sì. A differenza dell'API di completamento della chat, Azure OpenAI Assistenti sono un'API con stato, ovvero conservano i dati. Ci sono due tipi di dati archiviati nell'API Assistenti:

  • Entità statiche: thread, messaggi ed esecuzioni creati durante l'uso degli assistenti.
  • File: caricati durante la configurazione di Assistenti o come parte di un messaggio.

Dove vengono archiviati questi dati?

I dati vengono archiviati in un account di archiviazione gestito da Microsoft sicuro e separato logicamente.

Quanto tempo vengono archiviati questi dati?

Tutti i dati usati vengono mantenuti in questo sistema, a meno che non si eliminino in modo esplicito questi dati. Usare la funzione di eliminazione con l'ID thread del thread da eliminare. La cancellazione dell’esecuzione in Playground di Assistenti non elimina i thread, ma l'eliminazione tramite la funzione di eliminazione non li elenca nella pagina del thread.

È possibile usare un archivio dati personalizzato con Assistenti?

No. Attualmente Assistenti supporta solo i file locali caricati nell'archiviazione gestita da Assistenti. Non è possibile usare l'account di archiviazione privato con Assistenti.

Assistenti supporta la crittografia della chiave gestita dal cliente?

Oggi è supportata la chiave gestita dal cliente per thread e file in Assistenti. Vedere la Pagina Novità per le aree disponibili per questa funzionalità.

I dati vengono usati da Microsoft per i modelli di training?

No. I dati non vengono usati per Microsoft per i modelli di training. Per altre informazioni, vedere la Documentazione relativa all'intelligenza artificiale responsabile.

Dove vengono archiviati i dati geograficamente?

Gli endpoint di Azure OpenAI Assistenti sono a livello di area e i dati vengono archiviati nella stessa area dell'endpoint. Per altre informazioni, vedere la Documentazione relativa alla residenza dei dati di Azure.

Come vengono addebitati i costi per Assistenti?

  • Costo di inferenza (input e output) del modello di base usato per ogni Assistente (ad esempio gpt-4-0125). Se sono stati creati più Assistenti, verrà addebitato il modello di base associato a ogni Assistente.
  • Se è stato abilitato lo strumento Interprete del codice. Ad esempio, se l'assistente chiama l'interprete del codice contemporaneamente in due thread diversi, verranno create due sessioni dell'interprete del codice, ognuna delle quali verrà addebitata. Ogni sessione è attiva per impostazione predefinita per un'ora, il che significa che si paga questa tariffa solo una volta se l'utente continua a fornire istruzioni all'interprete di codice nello stesso thread per un massimo di un'ora.
  • La ricerca di file viene fatturata in base all'archiviazione vettoriale usata.

Per ulteriori informazioni, vedere la pagina dei prezzi.

Sono previsti prezzi o quote aggiuntivi per l'uso di Assistenti?

No. Tutte le quote si applicano all'uso di modelli con Assistenti.

L'API Assistenti supporta i modelli OpenAI non di Azure?

L'API Assistenti supporta solo i modelli di Azure OpenAI.

L'API Assistenti è disponibile a livello generale?

L'API Assistenti è attualmente in anteprima pubblica. Rimanere informati sugli ultimi aggiornamenti dei prodotti visitando regolarmente la pagina Novità.

Quali sono alcuni esempi o altre risorse che è possibile usare per ottenere informazioni sugli Assistenti?

Vedere gli articoli Concettuale, Guida introduttiva, Procedure per informazioni su come iniziare e usare Assistenti. È anche possibile consultare esempi di codice di Azure OpenAI Assistenti in GitHub.

Applicazione Web

Come è possibile personalizzare l'app Web pubblicata?

È possibile personalizzare l'app Web pubblicata nel portale di Azure. Il codice sorgente dell'app Web pubblicata è disponibile in GitHub, dove è possibile trovare informazioni sulla modifica del front-end dell'app nonché istruzioni per la costruzione e la distribuzione dell'applicazione.

L'app Web verrà sovrascritta quando si distribuisce nuovamente l'app da Studio AI della piattaforma Azure?

Il codice dell'app non verrà sovrascritto quando si aggiorna l'app. L'app verrà aggiornata per usare la risorsa OpenAI di Azure, l'indice di Ricerca di intelligenza artificiale di Azure (se si usa Azure OpenAI nei dati) e le impostazioni del modello selezionate in Azure AI Studio senza alcuna modifica all'aspetto o alla funzionalità.

Uso dei dati

Che cosa è Azure OpenAI sui dati?

Azure OpenAI sui dati è una funzionalità dei Servizi OpenAI di Azure che consente alle organizzazioni di generare informazioni dettagliate, contenuti e ricerche personalizzate usando le origini dati designate. Funziona con le funzionalità dei modelli OpenAI di Azure OpenAI per fornire risposte più accurate e pertinenti alle query degli utenti in linguaggio naturale. Azure OpenAI sui dati può essere integrato con le applicazioni e i flussi di lavoro esistenti del cliente, offre informazioni dettagliate sugli indicatori di prestazione chiave e può interagire facilmente con gli utenti.

Come è possibile accedere ad Azure OpenAI sui dati?

Tutti i clienti di Azure OpenAI possono usare Azure OpenAI sui propri dati tramite Studio AI della piattaforma Azure e l'API REST.

Quali origini di dati supporta Azure OpenAI sui dati?

Azure OpenAI sui dati supporta l'inserimento da Azure AI Search, Archiviazione BLOB di Azure e il caricamento di file locali. Per altre informazioni su Azure OpenAI sui dati, vedere l'articolo concettuale e l'avvio rapido.

Quanto costa usare Azure OpenAI sui dati?

Quando si usa Azure OpenAI sui propri dati, si sostengono costi quando si usa la Azure AI Search, Archiviazione BLOB di Azure, Servizio app Web di Azure, la ricerca semantica e i modelli OpenAI. L'uso della funzionalità "I tuoi dati" di Studio AI della piattaforma Azure non comporta costi aggiuntivi.

Come è possibile personalizzare o automatizzare il processo di creazione dell'indice?

È possibile preparare l'indice manualmente usando uno script fornito in GitHub. L'uso di questo script creerà un indice di Azure AI Search con tutte le informazioni necessarie per utilizzare al meglio i dati, con i documenti suddivisi in blocchi gestibili. Per informazioni dettagliate sull'esecuzione, vedere il file README con il codice di preparazione dei dati.

Come è possibile aggiornare l'indice?

È possibile pianificare un aggiornamento automatico dell'indice oppure caricare dati aggiuntivi nel Contenitore BLOB di Azure e usarli come origine dati quando si crea un nuovo indice. Il nuovo indice includerà tutti i dati del contenitore.

Quali tipi di file supporta Azure OpenAI sui dati?

Per altre informazioni sui tipi di file supportati, vedere Uso dei dati.

L'intelligenza artificiale responsabile è supportata da Azure OpenAI sui dati?

Sì, OpenAI di Azure sui dati fa parte del Servizio OpenAI di Azure e funziona con i modelli disponibili in Azure OpenAI. Le funzionalità di filtraggio dei contenuti e di monitoraggio degli abusi di Azure OpenAI sono ancora valide. Per altre informazioni, vedere la panoramica delle procedure di intelligenza artificiale responsabile per i modelli Azure OpenAI e la nota sulla trasparenza per Azure OpenAI per altre indicazioni sull'uso responsabile di Azure OpenAI sui dati.

Esiste un limite di token per il messaggio di sistema?

Sì, il limite di token per il messaggio di sistema è 400. Se il messaggio di sistema è maggiore di 400 token, il resto dei token oltre i primi 400 verrà ignorato. Questa limitazione si applica solo a OpenAI di Azure nella funzionalità dei dati.

Azure OpenAI nei dati supporta la chiamata a funzioni?

Azure OpenAI sui dati attualmente non supporta la chiamata a funzioni.

Il linguaggio della query e quello dell'origine dati devono essere gli stessi?

È necessario inviare query nella stessa lingua dei dati. I dati possono essere in una qualsiasi delle lingue supportate da Azure AI Search.

Se la ricerca semantica è abilitata per la risorsa ricerca di intelligenza artificiale di Azure, verrà applicata automaticamente ad Azure OpenAI sui dati in Azure AI Studio?

Quando si seleziona "Azure AI Search" come origine dati, è possibile scegliere di applicare la ricerca semantica. Se si seleziona "Contenitore BLOB di Azure" o "Carica file" come origine dati, è possibile creare l'indice come di consueto. Successivamente, è necessario inserire nuovamente i dati usando l'opzione "Azure AI Search" per selezionare lo stesso indice e applicare la ricerca semantica. Sarà quindi possibile chattare sui vostri dati con la ricerca semantica applicata.

Come è possibile aggiungere incorporamenti vettoriali durante l'indicizzazione dei dati?

Quando si seleziona "Contenitore BLOB di Azure", "Ricerca di intelligenza artificiale di Azure" o "Carica file" come origine dati, è anche possibile selezionare una distribuzione del modello di incorporamento di Ada da usare per l'inserimento dei dati. Verrà creato un indice di Azure AI Search con incorporamenti vettoriali.

Perché la creazione dell'indice ha esito negativo dopo l'aggiunta di un modello di incorporamento?

La creazione dell'indice può non riuscire quando si aggiungono incorporamenti all'indice se il limite di frequenza per la distribuzione del modello di incorporamento di Ada è troppo basso o se si dispone di un set di documenti molto grande. È possibile usare questo script fornito in GitHub per creare l'indice con incorporamenti manualmente.

L'impegno per il copyright del cliente è un provisioning da includere nelle Condizioni del prodotto Microsoft del 1° dicembre 2023 che descrive l'obbligo di Microsoft di difendere i clienti da determinate attestazioni di proprietà intellettuale di terze parti relative al contenuto di output. Se l'oggetto dell'attestazione è Contenuto di output generato dal servizio Azure OpenAI (o da qualsiasi altro prodotto coperto che consente ai clienti di configurare i sistemi di sicurezza), per ricevere la copertura, il cliente deve aver implementato tutte le mitigazioni richieste dalla documentazione del servizio Azure OpenAI nell'offerta che ha fornito il contenuto di output. Le mitigazioni necessarie sono documentate qui e aggiornate in modo continuativo. Per i nuovi servizi, le funzionalità, i modelli o i casi d'uso, verranno pubblicati nuovi requisiti CCC e saranno applicati al lancio di tale servizio, funzionalità, modello o caso d'uso. In caso contrario, i clienti avranno sei mesi dal momento della pubblicazione per implementare nuove mitigazioni per mantenere la copertura sotto il CCC. Se un cliente esegue una richiesta, il cliente dovrà dimostrare la conformità ai requisiti pertinenti. Queste mitigazioni sono necessarie per i prodotti coperti che consentono ai clienti di configurare i sistemi di sicurezza, incluso il servizio Azure OpenAI; non influiscono sulla copertura per i clienti che usano altri prodotti coperti.