Domande frequenti su Microsoft Copilot per Azure in Cosmos DB (anteprima).

Questo articolo fornisce informazioni generali e domande frequenti sulla trasparenza in merito a Microsoft Copilot per Azure in Cosmos DB.

Generali

Cosa è in grado di fare Copilot?

Copilot consente di scrivere query NoSQL sui propri dati con facilità e fiducia per aumentare la produttività tramite linguaggio naturale basato sull'intelligenza artificiale per la generazione di query.

Quali dati sono stati usati per eseguire il training di Copilot?

Copilot è basato su modelli di linguaggio di grandi dimensioni (LLMs) in OpenAI di Azure che vengono sottoposti a training preliminare e quindi configurati per generare query NoSQL di Azure Cosmos DB e spiegazioni del linguaggio naturale.

In che modo un utente ottiene il massimo da Copilot?

Gli utenti possono sfruttare al meglio l'esperienza seguendo questa procedura:

  • Immettere una richiesta di intelligenza artificiale per generare una query in un contenitore di Azure Cosmos DB specifico. Gli utenti possono digitare un prompt del linguaggio naturale nella casella Copilot e selezionare il pulsante a freccia Genera query. Copilot genera quindi una query di Azure Cosmos DB for NoSQL che corrisponde al prompt e la visualizza nell'editor di query insieme a una spiegazione.
  • Modificare il prompt in modo che sia più specifico e rigenerare la query: se l'utente non è soddisfatto della query generata da Copilot, può selezionare il pulsante Rigenera per chiedere all'intelligenza artificiale di generare una query diversa in base alla richiesta ottimizzata.
  • Inviare feedback: gli utenti possono fornire feedback al team Copilot usando il meccanismo di feedback incluso nella richiesta di query. Questo feedback viene usato per migliorare la qualità delle prestazioni delle risposte di Copilot.

Trasparenza

Quali dati vengono raccolti da Copilot e come possono essere usati?

Copilot si basa sullo schema degli elementi nel contenitore di Azure Cosmos DB per funzionare. Per fornire il servizio raccoglie dati, alcuni dei quali vengono quindi conservati per l'analisi, la mitigazione degli errori e i miglioramenti del prodotto. In base alle condizioni per l'utilizzo dell'anteprima, i dati potrebbero essere archiviati ed elaborati al di fuori dell'area geografica del tenant, del limite di conformità o dell'istanza cloud nazionale.

I dati raccolti includono:

  • Dati del servizio: quando si usa Copilot in Azure Cosmos DB, vengono raccolte informazioni sull'utilizzo sugli eventi generati durante l'interazione con il servizio Copilot. Questi dati includono informazioni quali timestamp, ID database, ID raccolta, codice di risposta HTTP, latenza della richiesta HTTP e così via. Questi dati possono essere usati per migliorare il servizio e mitigare gli errori.
  • Registrazione: se si verifica un errore nel servizio Azure Cosmos DB, vengono registrati l'errore e altri dati usati dal servizio al momento dell'errore. Questi log possono includere informazioni quali la richiesta immessa a Copilot, la query generata o le informazioni sullo schema dei dati inviate al servizio Copilot. Questi dati possono essere usati per migliorare il servizio e mitigare gli errori.
  • Feedback: gli utenti hanno la possibilità di inviare feedback su una query specifica. Questi dati di feedback contengono anche la richiesta inviata a Copilot dall'utente, la query generata e la spiegazione e qualsiasi feedback che l'utente desidera fornire a Microsoft. Questi dati possono essere usati per migliorare il prodotto.

Come vengono protette le richieste trasmesse e i dati di query?

Copilot adotta diverse misure per proteggere i dati, tra cui:

  • I dati trasmessi vengono crittografati sia in transito che inattivi; i dati correlati a Copilot vengono crittografati in transito tramite TLS e inattivi usando la crittografia dei dati di Microsoft Azure (standard FIPS Publication 140-2).
  • L'accesso ai dati di log e feedback è strettamente controllato. I dati vengono archiviati in una sottoscrizione separata. I dati sono accessibili solo da 1) Approvazione JIT just-in-time dal personale operativo di Azure usando workstation amministrative sicure.

Le richieste private, le query o i dati verranno condivisi con altri utenti?

No. Richieste, query e altri dati non vengono condivisi con altri utenti.

Dove è possibile ottenere altre informazioni sulla privacy e sulla protezione dei dati?

Per altre informazioni sul modo in cui Copilot elabora e usa i dati personali, vedere l'Informativa sulla privacy di Microsoft.

Termini e limitazioni

Dove è possibile trovare i termini di anteprima per l'uso di anteprime basate su Azure OpenAI come Copilot?

Per altre informazioni, vedere i termini di anteprima.

Qual è l'uso previsto di Copilot?

È possibile generare query di Azure Cosmos DB for NoSQL dalle proprie domande e richieste in linguaggio naturale all'interno di Esplora dati di Azure Cosmos DB. Ogni output generato contiene anche una descrizione della lingua naturale (inglese) delle operazioni di query. Durante l'anteprima pubblica, le prestazioni e l'accuratezza potrebbero essere limitate. Gli esseri umani devono esaminare e convalidare tutte le query generate da Copilot prima dell'uso.

Come è stato valutato Copilot? Quali metriche vengono utilizzate per misurare le prestazioni?

Copilot viene valutato con dati di test e richieste su diverse metriche, tra cui:

  • Validità: la query generata è una query di Azure Cosmos DB for NoSQL valida che può essere eseguita nel contenitore selezionato.
  • Correttezza: la query generata è quella prevista in risposta alla richiesta dell'utente.
  • Accuratezza: la query generata restituisce i risultati rilevanti e previsti per la richiesta dell'utente.

Quali sono i limiti di Copilot?

Copilot è una funzionalità che consente agli utenti di scrivere query NoSQL per Azure Cosmos DB fornendo suggerimenti basati sull'input in linguaggio naturale. Tuttavia, presenta alcune limitazioni che gli utenti devono conoscere e provare a ridurre al minimo. Alcune delle limitazioni includono:

  • Limiti di frequenza: Copilot limita il numero di query che un utente può eseguire. Se un utente supera cinque chiamate al minuto o otto ore di utilizzo totale al giorno, può ricevere un messaggio di errore. L'utente dovrà quindi attendere fino all'intervallo di tempo successivo per usare nuovamente Copilot.
  • Accuratezza limitata: Copilot è in anteprima pubblica, il che significa che le prestazioni e l'accuratezza potrebbero essere limitate. Gli esseri umani devono esaminare e convalidare tutte le query generate da Copilot prima dell'uso.
  • Le query generate potrebbero non essere accurate e fornire i risultati che l'utente intende ricevere. Copilot non è un sistema perfetto e talvolta può generare query non corrette, incomplete o irrilevanti. Queste query non corrette possono verificarsi a causa di:
    • Ambiguità nel prompt del linguaggio naturale
    • Limitazioni dell'elaborazione del linguaggio naturale sottostante
    • Limitazioni dei modelli di generazione di query sottostanti
    • Altri problemi.
  • Gli utenti devono sempre esaminare le query generate da Copilot e verificare che corrispondano alle aspettative e ai requisiti. Gli utenti devono anche fornire commenti e suggerimenti al team Copilot se riscontrano errori o problemi con le query. Gli utenti possono inviare commenti e suggerimenti direttamente tramite il meccanismo di feedback dell'interfaccia Copilot.
  • Supporto solo inglese: Copilot supporta ufficialmente l'inglese come lingua di input e output. Gli utenti che vogliono usare Copilot in altri linguaggi possono sperimentare una qualità e un'accuratezza ridotte dei risultati.

Copilot scrive query perfette o ottimali?

Copilot mira a fornire risposte accurate e informative in base ai dati disponibili. Le risposte generate da Copilot sono basate su modelli e probabilità nei dati linguistici, il che significa che potrebbero non essere sempre accurate. Gli esseri umani devono esaminare, testare e convalidare attentamente tutto il contenuto generato da Copilot.

Per ridurre il rischio di condividere contenuti offensivi imprevisti nei risultati e visualizzare articoli potenzialmente dannosi, Copilot prevede diverse misure. Nonostante queste misure, è comunque possibile riscontrare risultati imprevisti. Stiamo costantemente lavorando per migliorare la nostra tecnologia per risolvere in modo proattivo i problemi in linea con i nostri principi di intelligenza artificiale responsabile

Cosa devo fare se vengono visualizzati output imprevisti o offensivi?

Copilot usa filtri di contenuto personalizzati di Azure OpenAI per bloccare il linguaggio offensivo nei prompt e per evitare di sintetizzare i suggerimenti in contesti sensibili. Si tratta di una funzionalità che consente agli utenti di scrivere query NoSQL per Azure Cosmos DB e di rispettare i principi di intelligenza artificiale responsabile.