Image Moderation
Image Moderationは、画像内の不適切で安全でないコンテンツを検出・認識します。基準には、示唆的または明示的なわいせつコンテンツ、ヌード、暴力、残虐行為、流血、武器や薬物の存在が含まれます。
open()メソッドに.webp/.jpegまたは.pngファイルを入力として提供できます。このメソッドは、レスポンスとして画像ファイルオブジェクトを返します。
モデレーションモードとしてBASIC、MODERATE、またはADVANCEDをオプションで設定できます。デフォルトでは画像はADVANCEDモードで処理されます。
レスポンスは、各基準の確率と信頼度スコア、および画像がsafe_to_useまたはunsafe_to_useであるかの予測を返します。
以下で使用されているコンポーネントインスタンスziaの詳細については、こちらのヘルプセクションを参照してください。
使用パラメータ
| パラメータ名 | データ型 | 定義 |
|---|---|---|
| img | Image | 必須パラメータです。分析対象の画像を格納します。 |
| options | Array | オプションパラメータです。分析モードの値(「basic」、「moderate」、または「advanced」)を格納します。 |
copy
zia = app.zia()
img = open("sample.webp", "rb")
result = zia.moderate_image(img, options={"mode": "moderate"})
サンプルレスポンスを以下に示します:
copy
{
"probability":{
"racy":"0.09",
"nudity":"0.06"
},
"confidence":"0.85",
"prediction":"safe_to_use"
}
情報 : 上記の操作を実行するために必要な権限レベルを確認するには、SDKスコープテーブルを参照してください。
最終更新日 2026-03-30 13:40:30 +0530 IST
Yes
No
Send your feedback to us
Skip
Submit