Hızlı Başlangıç: Metin içeriğini analiz etme
Temel metin moderasyonu yapmak için Content Safety Studio, REST API veya istemci SDK'larını kullanmaya başlayın. Azure AI İçerik Güvenliği hizmeti, uygunsuz içeriği işaretlemek için size yapay zeka algoritmaları sağlar. Denemek için bu adımları izleyin.
Metin denetimi hakkında daha fazla bilgi için Bkz . Harm kategorileri kavramı sayfası. API giriş sınırları için Genel Bakış'ın Giriş gereksinimleri bölümüne bakın.
Not
Örnek veriler ve kod rahatsız edici içerik içerebilir. Kullanıcının takdirine bağlı olması tavsiye edilir.
Önkoşullar
- Azure aboneliği - Ücretsiz bir abonelik oluşturun
- Azure aboneliğinizi aldıktan sonra anahtarınızı ve uç noktanızı almak için Azure portalında bir İçerik Güvenliği kaynağı oluşturun. Kaynağınız için benzersiz bir ad girin, aboneliğinizi seçin ve bir kaynak grubu, desteklenen bölge (bkz . Bölge kullanılabilirliği) ve desteklenen fiyatlandırma katmanı. Daha sonra, Oluştur'u seçin.
- Kaynağın dağıtılması birkaç dakika sürer. Tamamlandıktan sonra Kaynağa git'i seçin. Sol bölmedeki Kaynak Yönetimi'nin altında Abonelik Anahtarı ve Uç Nokta'yı seçin. Uç nokta ve anahtarlardan biri API'leri çağırmak için kullanılır.
- cURL yüklü
Metin içeriğini analiz etme
Aşağıdaki bölümde cURL ile örnek bir istekte yol gösterir. Aşağıdaki komutu bir metin düzenleyicisine yapıştırın ve aşağıdaki değişiklikleri yapın.
- değerini kaynağınızla ilişkilendirilmiş uç nokta URL'si ile değiştirin
<endpoint>
. - değerini kaynağınızla birlikte gelen anahtarlardan biriyle değiştirin
<your_subscription_key>
. - İsteğe bağlı olarak, gövdedeki
"text"
alanı analiz etmek istediğiniz kendi metninizle değiştirin.İpucu
Metin boyutu ve ayrıntı düzeyi
En fazla metin uzunluğu sınırlamaları için giriş gereksinimleri bölümüne bakın.
curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["string"],
"haltOnBlocklistHit": true,
"outputType": "FourSeverityLevels"
}'
Url'ye aşağıdaki alanlar eklenmelidir:
Veri Akışı Adı | Zorunlu | Açıklama | Tür |
---|---|---|---|
API Sürümü | Zorunlu | Bu, denetlenecek API sürümüdür. Geçerli sürüm: api-version=2024-09-01. Örnek: <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 |
String |
İstek gövdesindeki parametreler şu tabloda tanımlanmıştır:
Veri Akışı Adı | Zorunlu | Açıklama | Tür |
---|---|---|---|
text | Zorunlu | Bu, denetlenecek ham metindir. Diğer ascii olmayan karakterler eklenebilir. | String |
Kategori | İsteğe bağlı | Bunun bir kategori adları dizisi olduğu varsayılır. Kullanılabilir kategori adlarının listesi için Bkz. Harm kategorileri kılavuzu . Hiçbir kategori belirtilmezse, dört kategori de kullanılır. Tek bir istekte puan almak için birden çok kategori kullanırız. | String |
blocklistNames | İsteğe bağlı | Metin blok listesi adı. Yalnızca şu karakterleri destekler: 0-9 A-Z a-z - . _ ~ . Buraya birden çok liste adı ekleyebilirsiniz. |
Dizi |
haltOnBlocklistHit | İsteğe bağlı | olarak ayarlandığında true , blok listelerinin isabet aldığı durumlarda zararlı içerikle ilgili daha fazla analiz yapılmaz. olarak ayarlandığında false , engelleyicilerin isabet alıp almadığı, zararlı içerikle ilgili tüm analizler gerçekleştirilir. |
Boolean |
outputType | İsteğe bağlı | "FourSeverityLevels" veya "EightSeverityLevels" . Dört veya sekiz düzeyde çıkış önem dereceleri, değer veya 0,1,2,3,4,5,6,7 olabilir0,2,4,6 . |
String |
Aşağıdaki örnek istek gövdesine bakın:
{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["array"],
"haltOnBlocklistHit": false,
"outputType": "FourSeverityLevels"
}
Bir komut istemi penceresi açın, düzenlenen cURL komutunu yapıştırın ve çalıştırın.
Çıktı
Konsol çıkışında metin denetimi sonuçlarının JSON verileri olarak görüntülendiğini görmeniz gerekir. Örneğin:
{
"blocklistsMatch": [
{
"blocklistName": "string",
"blocklistItemId": "string",
"blocklistItemText": "string"
}
],
"categoriesAnalysis": [
{
"category": "Hate",
"severity": 2
},
{
"category": "SelfHarm",
"severity": 0
},
{
"category": "Sexual",
"severity": 0
},
{
"category": "Violence",
"severity": 0
}
]
}
Çıktıdaki JSON alanları burada tanımlanır:
Veri Akışı Adı | Açıklama | Tür |
---|---|---|
kategorilerAnalysis | API'nin tahmin yaptığı her çıkış sınıfı. Sınıflandırma çok etiketli olabilir. Örneğin, bir metin örneği metin denetleme modeli üzerinden çalıştırıldığında, hem cinsel içerik hem de şiddet olarak sınıflandırılabilir. Zarar kategorileri | String |
Önem Derecesi | Giriş içeriğinin önem derecesi ne kadar yüksekse, bu değer o kadar büyüktür. | Tamsayı |
Başvuru belgeleri | Kitaplık kaynak kodu | Paketi (NuGet)Örnekleri |
Önkoşullar
- Azure aboneliği - Ücretsiz bir abonelik oluşturun
- İş yükü .NET masaüstü geliştirmesi etkinleştirilmiş Visual Studio IDE . Veya Visual Studio IDE kullanmayı planlamıyorsanız geçerli .NET Core sürümüne ihtiyacınız vardır.
- Azure aboneliğinizi aldıktan sonra anahtarınızı ve uç noktanızı almak için Azure portalında bir İçerik Güvenliği kaynağı oluşturun. Kaynağınız için benzersiz bir ad girin, aboneliğinizi seçin ve bir kaynak grubu, desteklenen bölge (bkz . Bölge kullanılabilirliği) ve desteklenen fiyatlandırma katmanı. Daha sonra, Oluştur'u seçin.
- Kaynağın dağıtılması birkaç dakika sürer. Tamamlandıktan sonra Kaynağa git'i seçin. Sol bölmedeki Kaynak Yönetimi'nin altında Abonelik Anahtarı ve Uç Nokta'yı seçin. Uç nokta ve anahtarlardan biri API'leri çağırmak için kullanılır.
Uygulamayı ayarlama
Yeni bir C# uygulaması oluşturun.
Visual Studio'yu açın ve Başlarken'in altında Yeni proje oluştur'u seçin. Şablon filtrelerini C#/Tüm Platformlar/Konsol olarak ayarlayın. Konsol Uygulaması'nı (Windows, Linux ve macOS üzerinde .NET üzerinde çalıştırabilen komut satırı uygulaması) ve İleri'yi seçin. Proje adını ContentSafetyQuickstart olarak güncelleştirin ve İleri'yi seçin. Projeyi oluşturmak için .NET 6.0 veya üzerini seçin ve Oluştur'u seçin.
İstemci SDK'sını yükleme
Yeni bir proje oluşturduktan sonra, Çözüm Gezgini proje çözümüne sağ tıklayıp NuGet Paketlerini Yönet'i seçerek istemci SDK'sını yükleyin. Açılan paket yöneticisinde Gözat'ı seçin ve için Azure.AI.ContentSafety
arama yapın. Yükle'yi seçin.
Ortam değişkenlerini oluşturma
Bu örnekte, kimlik bilgilerinizi uygulamayı çalıştıran yerel makinedeki ortam değişkenlerine yazacaksınız.
Anahtarınızın ve uç noktanızın ortam değişkenini ayarlamak için bir konsol penceresi açın ve işletim sisteminiz ve geliştirme ortamınıza yönelik yönergeleri izleyin.
- Ortam değişkenini
CONTENT_SAFETY_KEY
ayarlamak için değerini kaynağınızın anahtarlarından biriyle değiştirinYOUR_CONTENT_SAFETY_KEY
. - Ortam değişkenini
CONTENT_SAFETY_ENDPOINT
ayarlamak için değerini kaynağınızın uç noktasıyla değiştirinYOUR_CONTENT_SAFETY_ENDPOINT
.
Önemli
API anahtarı kullanıyorsanız, bunu Azure Key Vault gibi başka bir yerde güvenli bir şekilde depolayın. API anahtarını doğrudan kodunuzla eklemeyin ve hiçbir zaman herkese açık olarak göndermeyin.
Yapay zeka hizmetleri güvenliği hakkında daha fazla bilgi için bkz . Azure AI hizmetlerine yönelik isteklerin kimliğini doğrulama.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Ortam değişkenlerini ekledikten sonra, konsol penceresi de dahil olmak üzere ortam değişkenlerini okuyacak tüm çalışan programları yeniden başlatmanız gerekebilir.
Metin içeriğini analiz etme
Proje dizininden, daha önce oluşturulmuş Program.cs dosyasını açın. Aşağıdaki kodu yapıştırın:
using System;
using Azure.AI.ContentSafety;
namespace Azure.AI.ContentSafety.Dotnet.Sample
{
class ContentSafetySampleAnalyzeText
{
public static void AnalyzeText()
{
// retrieve the endpoint and key from the environment variables created earlier
string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");
ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));
string text = "Your input text";
var request = new AnalyzeTextOptions(text);
Response<AnalyzeTextResult> response;
try
{
response = client.AnalyzeText(request);
}
catch (RequestFailedException ex)
{
Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
throw;
}
Console.WriteLine("\nAnalyze text succeeded:");
Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);
}
static void Main()
{
AnalyzeText();
}
}
}
yerine "Your input text"
kullanmak istediğiniz metin içeriğini yazın.
İpucu
Metin boyutu ve ayrıntı düzeyi
En fazla metin uzunluğu sınırlamaları için giriş gereksinimleri bölümüne bakın.
IDE penceresinin üst kısmındaki Hata Ayıkla menüsünden Hata Ayıklamayı Başlat'ı seçerek uygulamayı derleyin ve çalıştırın (veya F5 tuşuna basın).
Başvuru belgeleri | Kitaplık kaynak kodu | Paketi (PyPI)Örnekleri | |
Önkoşullar
- Azure aboneliği - Ücretsiz bir abonelik oluşturun
- Azure aboneliğinizi aldıktan sonra anahtarınızı ve uç noktanızı almak için Azure portalında bir İçerik Güvenliği kaynağı oluşturun. Kaynağınız için benzersiz bir ad girin, aboneliğinizi seçin ve bir kaynak grubu, desteklenen bölge (bkz . Bölge kullanılabilirliği) ve desteklenen fiyatlandırma katmanı. Daha sonra, Oluştur'u seçin.
- Kaynağın dağıtılması birkaç dakika sürer. Tamamlandıktan sonra Kaynağa git'i seçin. Sol bölmedeki Kaynak Yönetimi'nin altında Abonelik Anahtarı ve Uç Nokta'yı seçin. Uç nokta ve anahtarlardan biri API'leri çağırmak için kullanılır.
- Python 3.x
- Python yüklemeniz pip içermelidir. Pip'in yüklü olup olmadığını denetlemek için komut satırında komutunu çalıştırabilirsiniz
pip --version
. Python'ın en son sürümünü yükleyerek pip alın.
- Python yüklemeniz pip içermelidir. Pip'in yüklü olup olmadığını denetlemek için komut satırında komutunu çalıştırabilirsiniz
Ortam değişkenlerini oluşturma
Bu örnekte, kimlik bilgilerinizi uygulamayı çalıştıran yerel makinedeki ortam değişkenlerine yazacaksınız.
Anahtarınızın ve uç noktanızın ortam değişkenini ayarlamak için bir konsol penceresi açın ve işletim sisteminiz ve geliştirme ortamınıza yönelik yönergeleri izleyin.
- Ortam değişkenini
CONTENT_SAFETY_KEY
ayarlamak için değerini kaynağınızın anahtarlarından biriyle değiştirinYOUR_CONTENT_SAFETY_KEY
. - Ortam değişkenini
CONTENT_SAFETY_ENDPOINT
ayarlamak için değerini kaynağınızın uç noktasıyla değiştirinYOUR_CONTENT_SAFETY_ENDPOINT
.
Önemli
API anahtarı kullanıyorsanız, bunu Azure Key Vault gibi başka bir yerde güvenli bir şekilde depolayın. API anahtarını doğrudan kodunuzla eklemeyin ve hiçbir zaman herkese açık olarak göndermeyin.
Yapay zeka hizmetleri güvenliği hakkında daha fazla bilgi için bkz . Azure AI hizmetlerine yönelik isteklerin kimliğini doğrulama.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Ortam değişkenlerini ekledikten sonra, konsol penceresi de dahil olmak üzere ortam değişkenlerini okuyacak tüm çalışan programları yeniden başlatmanız gerekebilir.
Metin içeriğini analiz etme
Aşağıdaki bölümde Python SDK'sı ile örnek bir istekte yol gösterir.
Bir komut istemi açın, proje klasörünüze gidin ve quickstart.py adlı yeni bir dosya oluşturun.
Azure AI İçerik Güvenliği kitaplığını yüklemek için şu komutu çalıştırın:
pip install azure-ai-contentsafety
Aşağıdaki kodu quickstart.py kopyalayın:
import os from azure.ai.contentsafety import ContentSafetyClient from azure.core.credentials import AzureKeyCredential from azure.core.exceptions import HttpResponseError from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory def analyze_text(): # analyze text key = os.environ["CONTENT_SAFETY_KEY"] endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"] # Create an Azure AI Content Safety client client = ContentSafetyClient(endpoint, AzureKeyCredential(key)) # Contruct request request = AnalyzeTextOptions(text="Your input text") # Analyze text try: response = client.analyze_text(request) except HttpResponseError as e: print("Analyze text failed.") if e.error: print(f"Error code: {e.error.code}") print(f"Error message: {e.error.message}") raise print(e) raise hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE) self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM) sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL) violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE) if hate_result: print(f"Hate severity: {hate_result.severity}") if self_harm_result: print(f"SelfHarm severity: {self_harm_result.severity}") if sexual_result: print(f"Sexual severity: {sexual_result.severity}") if violence_result: print(f"Violence severity: {violence_result.severity}") if __name__ == "__main__": analyze_text()
yerine
"Your input text"
kullanmak istediğiniz metin içeriğini yazın.İpucu
Metin boyutu ve ayrıntı düzeyi
En fazla metin uzunluğu sınırlamaları için giriş gereksinimleri bölümüne bakın.
Ardından hızlı başlangıç dosyanızdaki komutuyla
python
uygulamayı çalıştırın.python quickstart.py
Başvuru belgeleri | Kitaplık kaynak kodu | Yapıtı (Maven)Örnekler |
Önkoşullar
- Azure aboneliği - Ücretsiz bir abonelik oluşturun
- Java Geliştirme Seti'nin (JDK) geçerli sürümü
- Gradle derleme aracı veya başka bir bağımlılık yöneticisi.
- Azure aboneliğinizi aldıktan sonra anahtarınızı ve uç noktanızı almak için Azure portalında bir İçerik Güvenliği kaynağı oluşturun. Kaynağınız için benzersiz bir ad girin, aboneliğinizi seçin ve bir kaynak grubu, desteklenen bölge (bkz . Bölge kullanılabilirliği) ve desteklenen fiyatlandırma katmanı. Daha sonra, Oluştur'u seçin.
- Kaynağın dağıtılması birkaç dakika sürer. Tamamlandıktan sonra Kaynağa git'i seçin. Sol bölmedeki Kaynak Yönetimi'nin altında Abonelik Anahtarı ve Uç Nokta'yı seçin. Uç nokta ve anahtarlardan biri API'leri çağırmak için kullanılır.
Uygulamayı ayarlama
Yeni bir Gradle projesi oluşturun.
Konsol penceresinde (cmd, PowerShell veya Bash gibi), uygulamanız için yeni bir dizin oluşturun ve bu dizine gidin.
mkdir myapp && cd myapp
gradle init
Komutunu çalışma dizininizden çalıştırın. Bu komut, uygulamanızı oluşturmak ve yapılandırmak için çalışma zamanında kullanılan build.gradle.kts de dahil olmak üzere Gradle için temel derleme dosyaları oluşturur.
gradle init --type basic
DSL seçmeniz istendiğinde Kotlin'i seçin.
Çalışma dizininizden aşağıdaki komutu çalıştırarak bir proje kaynak klasörü oluşturun:
mkdir -p src/main/java
Yeni klasöre gidin ve ContentSafetyQuickstart.java adlı bir dosya oluşturun.
İstemci SDK'sını yükleme
Bu hızlı başlangıçta Gradle bağımlılık yöneticisi kullanılır. Maven Central Repository'de diğer bağımlılık yöneticilerinin istemci kitaplığını ve bilgilerini bulabilirsiniz.
build.gradle.kts dosyasını bulun ve tercih ettiğiniz IDE veya metin düzenleyici ile açın. Ardından aşağıdaki derleme yapılandırmasını kopyalayın. Bu yapılandırma, projeyi giriş noktası ContentSafetyQuickstart sınıfı olan bir Java uygulaması olarak tanımlar. Azure AI Vision kitaplığını içeri aktarır.
plugins {
java
application
}
application {
mainClass.set("ContentSafetyQuickstart")
}
repositories {
mavenCentral()
}
dependencies {
implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}
Ortam değişkenlerini oluşturma
Bu örnekte, kimlik bilgilerinizi uygulamayı çalıştıran yerel makinedeki ortam değişkenlerine yazacaksınız.
Anahtarınızın ve uç noktanızın ortam değişkenini ayarlamak için bir konsol penceresi açın ve işletim sisteminiz ve geliştirme ortamınıza yönelik yönergeleri izleyin.
- Ortam değişkenini
CONTENT_SAFETY_KEY
ayarlamak için değerini kaynağınızın anahtarlarından biriyle değiştirinYOUR_CONTENT_SAFETY_KEY
. - Ortam değişkenini
CONTENT_SAFETY_ENDPOINT
ayarlamak için değerini kaynağınızın uç noktasıyla değiştirinYOUR_CONTENT_SAFETY_ENDPOINT
.
Önemli
API anahtarı kullanıyorsanız, bunu Azure Key Vault gibi başka bir yerde güvenli bir şekilde depolayın. API anahtarını doğrudan kodunuzla eklemeyin ve hiçbir zaman herkese açık olarak göndermeyin.
Yapay zeka hizmetleri güvenliği hakkında daha fazla bilgi için bkz . Azure AI hizmetlerine yönelik isteklerin kimliğini doğrulama.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Ortam değişkenlerini ekledikten sonra, konsol penceresi de dahil olmak üzere ortam değişkenlerini okuyacak tüm çalışan programları yeniden başlatmanız gerekebilir.
Metin içeriğini analiz etme
tercih ettiğiniz düzenleyicide veya IDE'de ContentSafetyQuickstart.java açın ve aşağıdaki kodu yapıştırın. yerine <your text sample>
kullanmak istediğiniz metin içeriğini yazın.
İpucu
Metin boyutu ve ayrıntı düzeyi
En fazla metin uzunluğu sınırlamaları için giriş gereksinimleri bölümüne bakın.
import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;
public class ContentSafetyQuickstart {
public static void main(String[] args) {
// get endpoint and key from environment variables
String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
String key = System.getenv("CONTENT_SAFETY_KEY");
ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
.credential(new KeyCredential(key))
.endpoint(endpoint).buildClient();
AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));
for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
System.out.println(result.getCategory() + " severity: " + result.getSeverity());
}
}
}
Proje kök klasörüne geri dönün ve aşağıdakilerle uygulamayı derleyin:
gradle build
Ardından komutuyla gradle run
çalıştırın:
gradle run
Çıktı
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Başvuru belgeleri | Kitaplık kaynak kodu | Paketi (npm)Örnekler | |
Önkoşullar
- Azure aboneliği - Ücretsiz bir abonelik oluşturun
- Node.js'in geçerli sürümü
- Azure aboneliğinizi aldıktan sonra anahtarınızı ve uç noktanızı almak için Azure portalında bir İçerik Güvenliği kaynağı oluşturun. Kaynağınız için benzersiz bir ad girin, aboneliğinizi seçin ve bir kaynak grubu, desteklenen bölge (bkz . Bölge kullanılabilirliği) ve desteklenen fiyatlandırma katmanı. Daha sonra, Oluştur'u seçin.
- Kaynağın dağıtılması birkaç dakika sürer. Tamamlandıktan sonra Kaynağa git'i seçin. Sol bölmedeki Kaynak Yönetimi'nin altında Abonelik Anahtarı ve Uç Nokta'yı seçin. Uç nokta ve anahtarlardan biri API'leri çağırmak için kullanılır.
Uygulamayı ayarlama
Yeni bir Node.js uygulaması oluşturun. Konsol penceresinde (cmd, PowerShell veya Bash gibi), uygulamanız için yeni bir dizin oluşturun ve bu dizine gidin.
mkdir myapp && cd myapp
Bir package.json
dosyası ile bir düğüm uygulaması oluşturmak için npm init
komutunu çalıştırın.
npm init
İstemci SDK'sını yükleme
@azure-rest/ai-content-safety
npm paketini yükleyin:
npm install @azure-rest/ai-content-safety
Ayrıca ortam değişkenlerini kullanmak için modülü yükleyin dotenv
:
npm install dotenv
Uygulamanızın package.json
dosyası bağımlılıklarla güncelleştirilecek.
Ortam değişkenlerini oluşturma
Bu örnekte, kimlik bilgilerinizi uygulamayı çalıştıran yerel makinedeki ortam değişkenlerine yazacaksınız.
Anahtarınızın ve uç noktanızın ortam değişkenini ayarlamak için bir konsol penceresi açın ve işletim sisteminiz ve geliştirme ortamınıza yönelik yönergeleri izleyin.
- Ortam değişkenini
CONTENT_SAFETY_KEY
ayarlamak için değerini kaynağınızın anahtarlarından biriyle değiştirinYOUR_CONTENT_SAFETY_KEY
. - Ortam değişkenini
CONTENT_SAFETY_ENDPOINT
ayarlamak için değerini kaynağınızın uç noktasıyla değiştirinYOUR_CONTENT_SAFETY_ENDPOINT
.
Önemli
API anahtarı kullanıyorsanız, bunu Azure Key Vault gibi başka bir yerde güvenli bir şekilde depolayın. API anahtarını doğrudan kodunuzla eklemeyin ve hiçbir zaman herkese açık olarak göndermeyin.
Yapay zeka hizmetleri güvenliği hakkında daha fazla bilgi için bkz . Azure AI hizmetlerine yönelik isteklerin kimliğini doğrulama.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Ortam değişkenlerini ekledikten sonra, konsol penceresi de dahil olmak üzere ortam değişkenlerini okuyacak tüm çalışan programları yeniden başlatmanız gerekebilir.
Metin içeriğini analiz etme
dizininizde yeni bir dosya oluşturun index.js. Bunu tercih ettiğiniz düzenleyicide veya IDE'de açın ve aşağıdaki kodu yapıştırın. yerine <your text sample>
kullanmak istediğiniz metin içeriğini yazın.
İpucu
Metin boyutu ve ayrıntı düzeyi
En fazla metin uzunluğu sınırlamaları için giriş gereksinimleri bölümüne bakın.
const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
{ isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");
// Load the .env file if it exists
require("dotenv").config();
async function main() {
// get endpoint and key from environment variables
const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
const key = process.env["CONTENT_SAFETY_KEY"];
const credential = new AzureKeyCredential(key);
const client = ContentSafetyClient(endpoint, credential);
// replace with your own sample text string
const text = "<your sample text>";
const analyzeTextOption = { text: text };
const analyzeTextParameters = { body: analyzeTextOption };
const result = await client.path("/text:analyze").post(analyzeTextParameters);
if (isUnexpected(result)) {
throw result;
}
for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
console.log(
textCategoriesAnalysisOutput.category,
" severity: ",
textCategoriesAnalysisOutput.severity
);
}
}
main().catch((err) => {
console.error("The sample encountered an error:", err);
});
Uygulamayı hızlı başlangıç dosyanızdaki node
komutuyla çalıştırın.
node index.js
Çıktı
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Kaynakları temizleme
Azure AI hizmetleri aboneliğini temizlemek ve kaldırmak istiyorsanız, kaynağı veya kaynak grubunu silebilirsiniz. Kaynak grubunun silinmesi, kaynak grubuyla ilişkili diğer tüm kaynakları da siler.
İlgili içerik
- Zarar kategorileri
- Content Safety Studio kullanarak her kategori için filtreleri yapılandırın ve veri kümelerinde test edin, kodu dışarı aktarın ve dağıtın.