Vanliga frågor och svar för datasäkerhet och sekretess för Copilot i Dynamics 365 och Power Platform
Copilot för Dynamics 365 och Power Platform-funktioner följer en uppsättning grundläggande metoder för säkerhet och sekretess samt Microsoft Ansvarsfull AI-standard. Dynamics 365- och Power Platform-data skyddas av omfattande, branschledande efterlevnads-, säkerhets- och sekretesskontroller.
Copilot är byggd på Microsoft Azure OpenAI Service och körs helt inom Azure-molnet. Azure OpenAI erbjuder regional tillgänglighet och innehållsfiltrering för ansvarsfull AI. Copilot använder OpenAI-modeller med alla säkerhetsfunktioner i Microsoft Azure. OpenAI är en oberoende organisation. Vi delar inte dina data med OpenAI.
Copilot-funktioner är inte tillgängliga i alla Azure geografiska områden och språk. Beroende på var din miljö finns värdbaserad kan det vara nödvändigt att tillåta dataflytt över geografiska områden för att kunna använda dem. Mer information finns i artiklarna som listas under Dataflytt över geografiska områden.
Vad händer med mina data när jag använder Copilot?
Du har kontroll över dina data. Microsoft delar inte dina data med tredje part om du inte har gett behörighet att göra det. Dessutom använder vi inte dina kunddata för att träna Copilot eller dess AI-funktioner, såvida du inte ger oss ditt medgivande att göra det. Copilot följer befintliga databehörigheter och policyer, och dess svar till dig baseras endast på data som du personligen har tillgång till. Mer information om hur du kan kontrollera dina data och hur dina data hanteras finns i artiklarna som listas under Copilot i Dynamics 365-appar och Power Platform.
Copilot övervakar för stötande eller skadlig användning av tjänsten tillsammans med övergående bearbetning. Vi lagrar eller utför ingen mänsklig granskning av indata och utdata i Copilot i övervakningssyfte.
Hur använder Copilot mina data?
Varje tjänst eller funktion använder Copilot baserat på den data som du tillhandahåller eller konfigurerar för att Copilot ska bearbeta den.
Dina prompter (indata) och Copilots svar (utdata eller resultat):
Är INTE tillgängliga för andra kunder.
Används INTE för att träna eller förbättra några produkter eller tjänster från tredje part (som OpenAI-modeller).
Används INTE för att träna eller förbättra Microsoft AI-modeller om inte din klientorganisations administratör väljer att medverka till att dela data med oss. Läs mer på Vanliga frågor och svar om valfri datadelning för Copilot AI-funktioner i Dynamics 365 och Power Platform.
Läs mer om sekretess och säkerhet för Azure OpenAI Service. Om du vill veta mer om hur Microsoft skyddar och använder dina data mer generellt, läser du vår sekretesspolicy.
Vart tar mina data vägen?
Microsoft måste ha förtroende. Vi är engagerade i säkerhet, sekretess och efterlevnad i allt vi gör, och detsamma gäller för AI. Kunddata, inklusive indata och utdata i Copilot, lagras inom förtroendegränsen för Microsoft Cloud.
I vissa scenarier, till exempel funktioner som drivs av Bing och copilot-plugin-program från tredje part, kan kunddata överföras utanför förtroendegränsen för Microsoft Cloud.
Kan Copilot komma åt krypterat innehåll?
Data tillhandahålls Copilot baserat på åtkomstnivån för den aktuella användaren. Om en användare har tillgång till krypterade data i Dynamics 365 och Power Platform, och använder tillhandahåller Copilot den, då kan Copilot komma åt den.
Hur skyddar Copilot kunddata?
Microsoft är i en unik position att leverera företagsanpassat AI. Copilot drivs av Azure OpenAI Service och följer våra befintliga sekretess-, säkerhets- och regelverksåtaganden gentemot våra kunder.
Bygger på Microsofts omfattande metod för säkerhet, sekretess och efterlevnad. Copilot är integrerat i Microsoft-tjänster som Dynamics 365 och Power Platform och ärver deras säkerhets-, sekretess- och efterlevnadspolicyer och -processer, som till exempel multifaktorautentisering och efterlevnadsgränser.
Flera sätt att skydda organisationens data. Servicetekniker krypterar organisationsinnehåll i vila och vid överföring för robust säkerhet. Anslutningar skyddas med Transport Layer Security (TLS) och dataöverföringar mellan Dynamics 365, Power Platform och Azure OpenAI sker över Microsofts backbone-nätverk för att säkerställa tillförlitlighet och säkerhet. Läs mer om kryptering i Microsoft Cloud.
Strukturerat för att skydda dina data på både klientorganisationsnivå och miljönivå. Vi vet att dataläckage är ett problem för kunder. Microsoft AI-modeller tränas inte på och lär sig inte av dina klientorganisationsdata eller dina prompter, om inte din klientorganisations administratör har valt att dela data med oss. I dina miljöer kan du kontrollera åtkomsten via behörigheter som du ställer in. Autentiserings- och auktoriseringsmekanismer separerar begäranden till den delade modellen bland klientorganisationer. Copilot använder data som bara du kan komma åt med samma teknik som vi har använt i flera år för att skydda kunddata.
Är Copilots svar alltid sakliga?
Precis som med all generativ AI är svaren som Copilot ger inte alltid hundraprocentigt sakliga. Vi förbättrar kontinuerligt svaren på faktabaserade frågor men du bör fortfarande göra en egen bedömning och granska resultatet innan du skickar det till andra. Copilot tillhandahåller användbara utkast och sammanfattningar som hjälper dig att göra mer, men det är helt automatiskt. Du har alltid möjlighet att granska det AI-genererade innehållet.
Våra team arbetar för att proaktivt åtgärda problem som felaktig eller vilseledande information, innehållsblockering, datasäkerhet och förhindra skadligt eller diskriminerande innehåll i enlighet med våra Ansvarsfull AI-principer.
Vi erbjuder även vägledning inom användarupplevelsen för att stärka ansvarsfull användning av AI-genererat innehåll och föreslagna åtgärder.
Instruktioner och prompter. När du använder Copilot påminns du av prompter och andra instruktionselement om att granska och redigera svar efter behov och att manuellt kontrollera fakta, data och text så att de är korrekta innan du använder det AI-genererade innehållet.
Citerade källor. I förekommande fall anger Copilot sina informationskällor, oavsett om de är offentliga eller interna, så att du kan granska dem själv för att bekräfta dess svar.
Mer information finns i Vanliga frågor och svar om Ansvarsfull AI för din produkt på Microsoft Learn.
Hur blockerar Copilot skadligt innehåll?
Azure OpenAI Service innehåller ett system för innehållsfiltrering som arbetar tillsammans med kärnmodeller. Innehållsfiltreringsmodellerna för kategorierna Hat och rättvisa, Sexuellt, Våld och Självskadebeteende har tränats och testats specifikt på olika språk. Det här systemet fungerar genom att köra både indataprompten och svaret genom klassificeringsmodeller som har utformats för att identifiera och blockera utdata med skadligt innehåll.
Hat och rättviserelaterade skador avser allt innehåll som använder nedsättande eller diskriminerande språk baserat på attribut som ras, etnicitet, nationalitet, könsidentitet och könsuttryck, sexuell läggning, religion, invandringsstatus, funktionsstatus, personligt utseende och kroppsstorlek. Rättvisa handlar om att se till att AI-system behandlar alla grupper av människor på ett rättvist sätt utan att bidra till befintliga orättvisor i samhället. Sexuellt innehåll omfattar diskussioner om mänskliga fortplantningsorgan, romantiska relationer, handlingar som skildras i erotiska eller kärleksfulla termer, graviditet, fysiska sexuella handlingar, inklusive sådana som skildras som ett övergrepp eller påtvingat sexuellt våld, prostitution, pornografi och övergrepp. Våld beskriver språk som är relaterat till fysiska handlingar som är avsedda att skada eller döda, inklusive handlingar, vapen och relaterade entiteter. Språk relaterat till självskadebeteende avser avsiktliga handlingar som syftar till att skada eller döda sig själv.
Läs mer om Azure OpenAI Innehållsfiltrering.
Blockerar Copilot promptinjektioner (jailbreak-attacker)?
Jailbreak-attacker är användarprompter som är utformade för att provocera den generativa AI-modellen till att bete sig på sätt som den tränats för att undvika eller bryta mot reglerna som den blivit uppmanad att följa. Tjänster i Dynamics 365 och Power Platform är tvungna att skydda mot promptinjektioner. Läs mer om jailbreak-attacker och hur du använder Azure AI Innehållssäkerhet för att hitta dem.
Blockerar Copilot indirekta promptinjektioner (indirekta attacker)?
Indirekta attacker, som även kallas indirekta promptattacker eller domänöverskridande promptinjektionsattacker, är en potentiell säkerhetsrisk där tredje parter lägger skadlig information i dokument som det generativa AI-systemet kan få åtkomst till och bearbeta. Tjänster i Dynamics 365 och Power Platform är tvungna att skydda mot indirekta promptinjektioner. Läs mer om indirekta attacker och hur du använder Azure AI Innehållssäkerhet för att hitta dem.
Hur testar och validerar Microsoft Copilots kvalitet, inklusive skydd mot promptinjektioner och välgrundade svar?
Alla nya produkt- och språkmodeller för Copilot måste klara en intern granskning av Ansvarsfull AI innan de kan lanseras. Före frisläppningen använder vi en process som kallas "red teaming" (där ett team simulerar en fientlig attack som hittar och utnyttjar svagheter för att hjälpa organisationen att förbättra sitt försvar) för att bedöma potentiella risker för skadligt innehåll, jailbreak-scenarier och välgrundade svar. Efter frisläppningen använder vi automatisk testning samt manuella och automatiska utvärderingsverktyg för att bedöma kvaliteten på Copilot-svar.
Hur kan Microsoft förbättra grundmodellen och mäta förbättringar i välgrundade svar?
I samband med AI, särskilt AI som hanterar språkmodeller som den som Copilot baseras på, hjälper jordning AI att generera svar som är mer relevanta och meningsfulla i den verkliga världen. Jordning gör det lättare att se till att svar från AI baseras på pålitlig information och är så korrekta och relevanta som möjligt. Välgrundade svarsmått används för att bedöma hur korrekt de fakta som anges i det jordningsinnehåll som tillhandahålls modellen återges i slutresultatet.
Grundmodeller like GPT-4 förbättras av inhämtningsförbättrade genereringstekniker (RAG). Med dessa tekniker kan modellerna använda mer information än de tränats på för att förstå en användares scenario. RAG arbetar genom att först identifiera data som är relevanta för scenariot, på liknande sätt som hur en sökmotor identifierar webbsidor som är relevanta för användarens sökvillkor. Den använder sig av flera metoder för att identifiera vilket innehåll som är relevant för användarens prompt och ska användas för att jorda svaret. Metoderna omfattar sökning i olika typer av index, till exempel inverterade index med hjälp av informationsinhämtningsmetoder som termmatchning eller vektorindex som använder vektoravståndsjämförelser för semantisk likhet. När de relevanta dokumenten har identifieras skickat RAG över data till modellen tillsammans med den aktuella konversationen, vilket ger modellen ytterligare kontext för att bättre förstå den information den redan har och generera ett svar utifrån den verkliga världen. Slutligen kontrollerar RAG svaret för att säkerställa att det stöds av det källinnehåll den har tillhandahållit modellen. Copilot generativ AI använder sig av RAG på flera sätt. Ett exempel är chatt med dataanvändning, där en chattrobot jordas med kundens egna datakällor.
En annan metod för förbättring av grundmodeller kallas för finjustering. En stor datauppsättning med par av frågor och svar visas för en grundmodell för att förstärka dess ursprungliga träning med nya exempel som är avsedda för ett visst scenario. Modellen kan sedan distribueras som en separat modell – en modell som är finjusterad för det scenariot. Medan jordning handlar om att göra AI:s kunskap relevant för den verkliga världen, handlar finjustering om att göra AI:s kunskaper mer specifika för en viss uppgift eller domän. Microsoft använder finjustering på flera sätt. Vi använder det till exempel vid Power Automate-flödesskapande utifrån användarens beskrivningar på naturligt språk.
Uppfyller Copilot kraven på regelefterlevnad?
Microsoft Copilot är en del av samma ekosystem som Dynamics 365 och Power Platform och uppfyller samma krav för regelefterlevnad. Mer information om regelcertifieringar för Microsoft-tjänster finns på Service Trust Portal. Dessutom följer Copilot vårt åtagande för ansvarsfull AI, vilket omsätts i handling genom vår Ansvarsfull AI-standard. I takt med att regler och förordningar inom AI utvecklas fortsätter Microsoft att anpassa sig och uppfylla nya krav.
Läs mer
Copilot i Dynamics 365-appar och Power Platform
Läs mer på Vanliga frågor och svar om valfri datadelning för Copilot AI-funktioner i Dynamics 365 och Power Platform.
Tillgänglighet efter region och språk
Internationell tillgänglighet för Copilot
Dataflytt över geografiska områden
- Så här fungerar dataflytt mellan regioner
- Konfigurera dataflytt över geografiska platser för generativ AI-funktioner utanför USA
- Copilot-dataflytt över geografiska områden i Dynamics 365 Sales
- Copilot-dataflytt över geografiska områden i Dynamics 365 Business Central
Säkerhet på Microsoft
- Introduktion till Azure-säkerhet
- Kryptering i Microsoft Cloud
- Data, sekretess och säkerhet för Azure OpenAI Service – Azure AI-tjänster