お知らせ:

当社は、お客様により充実したサポート情報を迅速に提供するため、本ページのコンテンツは機械翻訳を用いて日本語に翻訳しています。正確かつ最新のサポート情報をご覧いただくには、本内容の英語版を参照してください。

Image Moderation

Image Moderationは、画像内の不適切で安全でないコンテンツを検出し認識します。基準には、示唆的または露骨な際どいコンテンツ、ヌード、暴力、流血、出血、武器や薬物の存在が含まれます。

入力として.jpg/._jpeg_または._png_ファイルを提供できます。リクエストとレスポンスの形式については、APIドキュメントを参照してください。

モデレーションモードをオプションでBASICMODERATE、またはADVANCEDに設定できます。デフォルトでは、画像はADVANCEDモードで処理されます。

レスポンスは、各基準の確率と信頼度スコア、および画像が safe_to_useまたはunsafe_to_useであるという予測を返します。

以下で使用されているziaリファレンスは、コンポーネントインスタンスページで定義されています。ここで返されるPromiseは、JSONオブジェクトに解決されます。

copy
let fs = require('fs');
zia.moderateImage(fs.createReadStream('./weapon.png'), {mode: 'moderate'}) 
//入力ファイルとモードを渡す
.then((result) => { console.log(result); }).catch((err) => console.log(err.toString())); 
//エラーをCatalyst Logsに記録する

受信するサンプルレスポンスを以下に示します。レスポンスはNode.jsの両方のバージョンで同じです。

Node js

copy
{"probability":{"racy":"0.09","nudity":"0.06"},"confidence":"0.85","prediction":"safe_to#_use"}

最終更新日 2026-03-30 13:40:30 +0530 IST

このページについて

関連リンク

Image moderation - API