Identifiering av innehåll som är olämpligt för barn
Azure AI Vision kan identifiera vuxet material i bilder så att utvecklare kan begränsa visning av dessa bilder i sin programvara. Innehållsflaggor tillämpas med en poäng mellan noll och en så att utvecklare kan tolka resultatet enligt sina egna inställningar.
Prova funktionerna för identifiering av vuxet innehåll snabbt och enkelt i webbläsaren med hjälp av Vision Studio.
Dricks
Azure AI Content Safety är det senaste erbjudandet inom AI-režim šatora ration. Mer information finns i översikten över Azure AI Content Safety.
Innehållsflaggadefinitioner
Klassificeringen "vuxen" innehåller flera olika kategorier:
- Vuxna bilder är uttryckligen sexuella till sin natur och visar ofta nakenhet och sexuella handlingar.
- Olämpliga bilder är sexuellt suggestiva till sin natur och innehåller ofta mindre sexuellt explicit innehåll än bilder taggade som Vuxna.
- Blodiga bilder visar blod/gore.
Använda API:et
Du kan identifiera vuxet innehåll med API:et Analysera bild 3.2 . När du lägger till värdet Adult
för i frågeparametern visualFeatures returnerar API:et tre booleska egenskaper –isAdultContent
isRacyContent
och isGoryContent
– i dess JSON-svar. Metoden returnerar också motsvarande egenskaper –adultScore
, racyScore
och goreScore
– som representerar konfidenspoäng mellan noll och en för respektive kategori.