Ofte stillede spørgsmål om beskyttelse af personlige oplysninger og data i Copilot til Dynamics 365 og Power Platform
Copilot til Dynamics 365 og Power Platform-funktioner følger et sæt grundlæggende sikkerheds- og privatlivspraksisser og Microsoft standarder for ansvarlig AI. Dynamics 365- og Power Platform-data er beskyttet af omfattende, brancheførende overholdelse af sikkerheds- og privatlivskontroller.
Copilot er bygget på Microsoft Azure OpenAI Service og køres fuldstændigt i Azure-cloud. Azure OpenAI tilbyder regional tilgængelighed og filtrering af indhold i ansvarlig kunstig intelligens. Copilot bruger OpenAI-modeller med alle sikkerhedsfunktioner i Microsoft Azure. OpenAI er en uafhængig organisation. Vi deler ikke dine data med OpenAI.
Copilot-funktioner er ikke tilgængelige i alle Azure-geografiske områder og sprog. Afhængigt af, hvor dit miljø er hostet, skal du muligvis tillade, at dataene bevæger sig tværs over geografiske områder for at bruge dem. Du kan finde flere oplysninger i de artikler, der er anført under Dataflytning på tværs af geografiske områder.
Hvad sker der med mine data, når jeg bruger Copilot?
Du har kontrol over dine data. Microsoft deler ikke dine data med en tredjepart, medmindre du har givet tilladelse til det. Desuden bruger vi ikke dine kundedata til at træne eller forbedre Copilot eller dens AI-funktioner, medmindre du giver samtykke om, at vi må gøre det. Copilot overholder eksisterende datatilladelser og politikker, og dets svar til dig er baseret kun på data, de personligt har adgang til. Du kan finde flere oplysninger om, hvordan du kan styre dine data, og hvordan dine data håndteres, i de artikler, der er anført under Copilot i Dynamics 365-apps og Power Platform.
Copilot overvåger for krænkende og skadelig brug af servicen med gennemsigtig behandling. Vi opbevarer eller udfører ikke undersøgelse af Copilot-input og -output med henblik på overvågning af misbrug.
Hvordan bruger Copilot mine data?
Hver service eller funktion bruger Copilot baseret på de data, du leverer eller opsætter til Copilot at behandle.
Dine prompts (input) og Copilots svar (output eller resultater):
Er IKKE tilgængelige for andre kunder.
Bruges IKKE til at træne eller forbedre nogen tredjepartsprodukter eller -services (såsom OpenAI-modeller).
Bruges IKKE til at træne eller forbedre Microsoft AI-modeller, medmindre din lejeradministrator vælger at dele data med os. Få mere at vide i Ofte stillede spørgsmål om valgfri datadeling for Copilot AI-funktioner i Dynamics 365 og Power Platform.
Få mere at vide om beskyttelse af personlige oplysninger og sikkerhed OpenAI i Azure-tjenesten. Hvis du vil vide mere om, hvordan du Microsoft beskytter og bruger dine data mere generelt, kan du læse vores erklæring om beskyttelse af personlige oplysninger.
Hvor går mine data hen?
Microsoft kører på tillid. Vi forpligter os til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af regler og standarder i alt, hvad vi gør, og vores tilgang til kunstig intelligens er ikke anderledes. Kundedata, herunder Copilot-input og -output, gemmes inden for cloud-tillidsgrænsen Microsoft .
I nogle scenarier, f.eks. funktioner, der drives af Bing og copilot-plug-ins fra tredjepart, kan kundedata overføres uden for grænsen for tillid i Microsoft skyen.
Kan Copilot få adgang til krypteret indhold?
Data, der leveres til Copilot, er baseret på adgangsniveauet for den aktuelle bruger. Hvis en bruger har adgang til de krypterede data i Dynamics 365 og Power Platform, og brugeren leverer dem til Copilot, har Copilot adgang til dem.
Hvordan beskytter Copilot kundedata?
Microsoft er unikt positioneret til at levere virksomhedsklar AI. Copilot, der er drevet af Azure OpenAI Service og overholder vores eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder over for vores kunder.
Bygget på Microsoft den omfattende tilgang til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder. Copilot er integreret i Microsoft tjenester som Dynamics 365 og Power Platform arver deres politikker og processer for sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder, f.eks. multifaktorgodkendelse og overholdelsesgrænser.
Flere former for beskyttelse til sikring af organisationsdata. Teknologier på servicesiden krypterer organisationsindhold i hvile og undervejs for robust sikkerhed. Forbindelser sikres med TLS (Transport lag Security), og dataoverførsler mellem Dynamics 365 Power Platform og Azure OpenAI sker via Microsoft backbone-netværket, hvilket sikrer både pålidelighed og sikkerhed. Få mere at vide om kryptering i skyen Microsoft .
Designet til at beskytte dine data både på lejer- og miljøniveau. Vi ved, at datalækager er et stort problem for kunderne. Microsoft AI-modeller trænes ikke på og lærer ikke af dine lejerdata eller dine prompter, medmindre din lejeradministrator har tilmeldt sig at dele data med os. I dine miljøer kan du styre adgangen via de tilladelser, du opsætter. Godkendelses- og godkendelsesmekanismer imødekommer forespørgsler til den delte model blandt lejere. Copilot udnytter data, som kun du har adgang til vha. den samme teknologi, som vi har brugt i mange år til at beskytte kundedata.
Er Copilots svar altid faktuelle?
Som med enhver generativ AI er Copilot-svar ikke 100 % faktuelle. Selvom vi fortsat vil forbedre svarene på faktabaserede forespørgsler, skal du stadig bruge din vurdering, når du gennemgår outputtet, før du sender det til andre. Copilot indeholder nyttige kladder og oversigter, der kan hjælpe dig med at gøre mere, men det sker automatisk. Du har altid mulighed for at gennemse det AI-genererede indhold.
Vores teams arbejder proaktivt på at tage fat i problemer som f.eks. misinformation og desinformation, indholdsblokering, datasikkerhed og opprioritering af udbredelse af skadeligt eller diskriminerende indhold i overensstemmelse med vores principper for ansvarlig kunstig intelligens.
Vi tilbyder også en vejledning i brugeroplevelsen for at styrke ansvarlig brug af AI-genereret indhold og foreslåede handlinger.
Instruktioner og prompts. Når du bruger Copilot, husker prompts og andre informationselementer dig på, hvordan du kan gennemse og redigere svar efter behov inden brug og til manuelt at kontrollere fakta, data og tekst for nøjagtighed før du bruger AI-genereret indhold.
Citerede kilder. Hvor det er relevant, henviser Copilot til sine informationskilder, uanset om de er offentlige eller interne, så du selv kan gennemse dem for at bekræfte svarene.
Du kan finde flere oplysninger i Ofte stillede spørgsmål om ansvarlige kunstig intelligens for dit produkt på Microsoft Learn.
Hvordan blokerer Copilot skadeligt indhold?
Azure OpenAI Service indeholder et indholdsfiltreringssystem, der fungerer side om side med kernemodeller. De indholdsfiltreringsmodeller, der anvendes i kategorierne Had og fairness, Sex, Vold og Selvbeskadigelse er specifikt trænet og testet på forskellige sprog. Dette system fungerer ved at køre både inputprompten og svaret via klassificeringsmodeller, der er udviklet til at identificere og blokere outputtet af skadelige indhold.
Had og fairnessrelaterede emner refererer til alt indhold, der bruger et nedsættende eller diskriminerende sprog, som er baseret på attributter som race, tilhørsforhold, nationalitet, identitet og udtryk, seksuel orientering, religion, immigrationsstatus, tilstandsstatus, personligt udseende og kropsstørrelse. Fairness handler om at sikre, at AI-systemer behandler alle grupper af personer lige uden at bidrage til eksisterende socioøkonomiske uligheder. Seksuelt indhold involverer diskussioner om de menneskelige reproduktive organer, romantiske relationer, handlinger, som skildres i erotiske eller hengivne udtryk, graviditet, fysiske seksuelle handlinger, herunder dem som skildres som et angreb eller en tvungen handling af seksuel vold, prostitution, pornografi og misbrug. Vold beskriver sprog, der relaterer til fysiske handlinger, som er beregnet til at skade eller dræbe, herunder handlinger, vågen og relateret objekter. Et selvskadende sprog refererer til overlagte handlinger, der har til formål at skade eller dræbe én selv.
Få mere at vide om Azure-indholdsfiltrering OpenAI .
Blokerer Copilot indskydelse af prompt (jailbreak-angreb)?
Jailbreak-angreb er brugerprompter, der er designet til at provokere den generative AI-model til at opføre sig på måder, den blev trænet til ikke at gøre, eller bryde de regler, den har fået besked på at følge. Services på tværs af Dynamics 365 og Power Platform er påkrævet for at beskytte mod prompt-indskydelser. Få mere at vide om jailbreak-angreb, og hvordan du bruger Azure AI Content Safety til at registrere dem.
Blokerer Copilot for indirekte indskydning af prompt (indirekte angreb)?
Indirekte angreb, også kaldet indirekte prompt-angreb eller angreb med prompt-indskydning på tværs af domæner, er en potentiel sårbarhed, hvor tredjeparter placerer skadelige instruktioner i dokumenter, som det generative AI-system kan få adgang til og behandle. Tjenester på tværs af Dynamics 365 og Power Platform er påkrævet for at beskytte mod indirekte indskydning af prompt. Få mere at vide om indirekte angreb, og hvordan du bruger Azure AI Content Safety til at registrere dem.
Hvordan tester og validerer Microsoft Copilot-kvaliteten, herunder hurtig injektionsbeskyttelse og jordede reaktioner?
Alle nye Copilot-produkter og gentagede sprogmodeller skal bestå en intern, ansvarlig AI-gennemgang, før det kan startes. Inden udgivelsen bruger vi en proces, der kaldes "rød gruppe" (hvor et team simulerer et angreb, hvor de angreb, der simuleres, finder og udnytter svagheder for at hjælpe organisationen med at forbedre organisationens sårbarheder) til at vurdere potentielle risici i skadeligt indhold, jailbreak-scenarioer og begrundede svar. Efter udgivelsen bruger vi automatiserede test og manuelle og automatiserede evalueringsværktøjer til at vurdere kvaliteten af Copilot-svar.
Hvordan forbedrer Microsoft man fundamentmodellen og måler forbedringer i jordede svar?
I forbindelse med kunstig intelligens især den kunstige intelligens, der håndterer sprogmodeller som den, Copilot er baseret på, hjælper grounding kunstig intelligens med at generere svar, der er mere relevante og giver mening i den virkelige verden. Grounding sikrer, at svar fra kunstig intelligens er baseret på pålidelige oplysninger og er så nøjagtige og relevante som muligt. Begrundede svarmetrikværdier vurderer, hvor nøjagtigt de faktiske forhold, der angives i det materiale, der leveres til modellen, repræsenteres i det endelige svar.
Foundation-modeller som GPT-4 er forbedret ved RAG-teknikker (Retrieval Augmented Generation). Med disse teknikker kan modellerne bruge flere oplysninger, end de var trænet til at forstå en brugers scenario. RAG fungerer ved først at identificere data, der er relevante for scenariet, på samme måde som et søgeprogram identificerer websider, der er relevante for brugerens søgeord. Det bruger flere fremgangsmåder til at identificere, hvilket indhold der er relevant for brugerprompten, og det skal bruges til at identificere responset. Fremgangsmåder omfatter søgning mod forskellige typer indekser, f.eks. omvendte indekser ved hjælp af teknikker til hentning af oplysninger, f.eks. termmatchning, eller indekser for opslagsindeks, der bruger sammenligninger af længder på medaljer for semantisk lighed. Når RAG identificerer relevante dokumenter, overfører det dataene til modellen sammen med den aktuelle samtale, så modellen får en bedre sammenhæng, så den bedre kan forstå de oplysninger, den allerede har, og oprette et svar, der er udviklet i den virkelige verden. Til sidst kontrollerer RAG svaret for at sikre, at det understøttes af det kildeindhold, der blev leveret til modellen. Copilots generative AI-funktioner inkorporerer RAG på flere måder. Et eksempel er chat med data, hvor en chatrobot bliver brugt sammen med kundens egne datakilder.
En anden metode til forbedring af grundlæggende modeller kaldes finjustering. En stor datasæt af forespørgselssvarpar vises i en grundlæggende model, så den oprindelige træning kan anvendes på nye eksempler, der er beregnet til et bestemt scenario. Modellen kan derefter udrulles som en separat model – en model, der er finjusteret til det pågældende scenario. Selv om grounding handler om at gøre den kunstige intelligens viden relevant for den virkelige verden, handler finjustering om at gøre den kunstige intelligens viden mere specifik for en bestemt opgave eller et bestemt domæne. Microsoft Bruger finjustering på flere måder. Vi bruger f.eks. oprettelse af Power Automate-flow fra naturlige sprogbeskrivelser, som brugeren har angivet.
Overholder Copilot kravene i forbindelse med bemyndigelse af overholdelseskrav?
Microsoft Copilot er del af Dynamics 365 og Power Platform-økosystemet og overholder de samme krav til overholdelse af lovgivningskrav. Du kan finde flere oplysninger om de lovpligtige certificeringer af Microsoft tjenester ved at gå til Service Trust Portal. Derudover opretholder Copilot vores forpligtelse til at overholde en ansvarlig kunstig intelligens, som tages i brug, gennem vores ansvarlige AI-standarder. Efterhånden som reguleringen inden for kunstig intelligens udvikler sig, Microsoft fortsætter den med at tilpasse sig og reagere på nye krav.
Flere oplysninger
Copilot i Dynamics 365-apps og Power Platform
Produkt | Funktion | Er administrerede miljøer påkrævet? | Sådan slås funktionen fra |
---|---|---|---|
AI Builder | Scenarier i forhåndsversion | Nr. | Scenarier i forhåndsversion |
Copilot Studio | Generel viden om kunstig intelligens | Nr. | Copilot Studio Sikkerhed og styring |
Copilot Studio | Opret og rediger emner med Copilot | Nr. | Copilot Studio Sikkerhed og styring |
Copilot Studio | Generative handlinger | Nr. | Copilot Studio Sikkerhed og styring |
Copilot Studio | Generative svar | Nr. | Copilot Studio Sikkerhed og styring |
Dynamics 365 Business Central | Alle (se den fulde liste på aka.ms/bcAI.) | Nr. | Aktiver funktioner |
Dynamics 365 Customer Insights - Data | Opret segmenter med Copilot for Customer Insights - Data (forhåndsversion) | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Oversigt over dataforberedelsesrapport (forhåndsversion) | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Få svar på spørgsmål om funktioner fra Copilot (forhåndsversion) | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights (Data) | Have en dialog med data ved hjælp af Copilot i Customer Insights | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Se systemkonfiguration | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Journeys | Copilot hjælper dig med at lære og gøre mere (anmeldelse) | Nej | Hvorvidt denne copilot er tilgængelig i dit miljø, bestemmes af Power Platform-administratorindstillinger. Få mere at vide om, hvordan du tilføjer Copilot til modelbaserede apps. Denne funktion er "app copilot in Customer Insights - Journeys", og det er derfor, den er aktiveret i Power Platform Administration. Få mere at vide: Ofte stillede spørgsmål om ansvarlig AI |
Dynamics 365 Customer Insights - Journeys | Opret kampagneforløb ved hjælp af AI-hjælp | Nej | Customer Insights - Journeys har sine egne flag for Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Opdater og perfektioner dit budskab | Nej | Customer Insights - Journeys har sine egne flag for Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Style dine mails med AI-assisterede temaer | Nej | Customer Insights - Journeys har sine egne flag for Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Målret mod de rigtige kunder ved hjælp af forespørgselshjælp |
Nej | Customer Insights - Journeys har sine egne flag for Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Brug AI til at kickstarte oprettelse af mails | Nej | Customer Insights - Journeys har sine egne flag for Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Brug billeder i dit indhold | Nej | Customer Insights - Journeys har sine egne flag for Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Service | Skriv en e-mail | Nr. | Administrer Copilot-funktioner i kundeservice |
Dynamics 365 Customer Service | Udkast til et chat-svar | Nr. | Administrer Copilot-funktioner i kundeservice |
Dynamics 365 Customer Service | Svar på spørgsmål | Nr. | Administrer Copilot-funktioner i kundeservice |
Dynamics 365 Customer Service | Opsummere en sag og samtale | Nr. | Administrer Copilot-funktioner i kundeservice |
Power Apps | Byg apps gennem samtale | Nr. | Administrer funktionsindstillinger |
Power Apps | Copilot-hjælp til formularudfyldning i modelbaserede apps | Nej | Administrer funktionsindstillinger |
Power Apps | Udkast til velskrevet inputtekst med Copilot | Nej, premiumbrugerlicens | Udkast til velskrevet inputtekst med Copilot |
Power Apps | Excel til tabel | Nej | Administrer funktionsindstillinger |
Power Apps | Brug naturligt sprog til at redigere en app ved hjælp af Copilot-panelet | Nej | Administrer funktionsindstillinger |
Power Automate | Copilot i cloudflows på startsiden og i designeren (Se Kom i gang med Copilot i cloudflows for at få flere oplysninger). | Nej | Kontakt support for at køre et PowerShell-script. |
Power Pages | Alle (Se Copilot-oversigt i Power Pages for at få flere oplysninger.) | Nej | Sluk for Copilot i Power Pages |
Få mere at vide i Ofte stillede spørgsmål om valgfri datadeling for Copilot AI-funktioner i Dynamics 365 og Power Platform.
Tilgængelighed i geografiske områder og tilgængelige sprog
Copilot international tilgængelighed
Databevægelser på tværs af geografiske områder
- Sådan fungerer dataflytning på tværs af områder
- Konfigurer dataflytning på tværs af geografiske placeringer for generative AI-funktioner uden for USA
- Copilot-dataflytning på tværs af geografiske områder i Dynamics 365 Sales
- Copilot-dataflytning på tværs af geografiske områder i Dynamics 365 Business Central
Sikkerhed på Microsoft
- Introduktion til Azure-sikkerhed
- Kryptering i skyen Microsoft
- Data, beskyttelse af personlige oplysninger og sikkerhed for Azure OpenAI Service – Azure AI-tjenester
Privatliv på Microsoft
Microsoft Erklæring om beskyttelse af personlige oplysninger