Image Moderation
Image Moderationは、画像内の不適切で安全でないコンテンツを検出し認識します。基準には、示唆的または露骨な際どいコンテンツ、ヌード、暴力、流血、出血、武器や薬物の存在が含まれます。
入力として.jpg/._jpeg_または._png_ファイルを提供できます。リクエストとレスポンスの形式については、APIドキュメントを参照してください。
モデレーションモードをオプションでBASIC、MODERATE、またはADVANCEDに設定できます。デフォルトでは、画像はADVANCEDモードで処理されます。
レスポンスは、各基準の確率と信頼度スコア、および画像が safe_to_useまたはunsafe_to_useであるという予測を返します。
以下で使用されているziaリファレンスは、コンポーネントインスタンスページで定義されています。ここで返されるPromiseは、JSONオブジェクトに解決されます。
copy
let fs = require('fs');
zia.moderateImage(fs.createReadStream('./weapon.png'), {mode: 'moderate'})
//入力ファイルとモードを渡す
.then((result) => { console.log(result); }).catch((err) => console.log(err.toString()));
//エラーをCatalyst Logsに記録する
受信するサンプルレスポンスを以下に示します。レスポンスはNode.jsの両方のバージョンで同じです。
Node js
copy
{"probability":{"racy":"0.09","nudity":"0.06"},"confidence":"0.85","prediction":"safe_to#_use"}
最終更新日 2026-03-30 13:40:30 +0530 IST
Yes
No
Send your feedback to us
Skip
Submit