Image Moderation
はじめに
Image Moderationは、画像内の不適切で安全でないコンテンツを監視・認識するCatalyst Zia Servicesのコンポーネントです。コンテンツモデレーションのサブ機能であり、事前に定められたルールセットに基づいて、特定の画像が業務上安全かどうかを判断します。Zia Image Moderationは、画像内の以下の基準を監視・認識します。
- 露骨なヌード
- 挑発的または示唆的なコンテンツ
- 流血、残虐、暴力
- 薬物および物質
- 武器
Image Moderationは、Catalystアプリケーション内のユーザー生成コンテンツがアプリケーションの基準やガイドラインに違反しないようにするために使用されます。検出された不適切なコンテンツにフラグを付けたり、フィルタリングしたり、自動的に削除したりすることで、ブランドの評判と一般的な品位を維持できます。
Catalystは、Java、Node.js、Python SDKパッケージでImage Moderationを提供しており、CatalystのWebまたはAndroidアプリケーションに統合できます。Catalystコンソールでは、アプリケーションのコードに実装できるこれらの環境用のコードテンプレートに簡単にアクセスできます。
また、コンソールでサンプル画像を使用してImage Moderationをテストし、上記の属性に基づいたモデレーション結果を取得することもできます。Image Moderationは、各結果にconfidence scoreも提供し、その正確性を検証して次のステップについて十分な情報に基づいた判断を行うことができます。
コードサンプルについては、Java SDKドキュメント、Node.js SDKドキュメント、Python SDKドキュメントを参照してください。Image ModerationのAPIについては、APIドキュメントを参照してください。
Catalyst Zia Servicesのその他のコンポーネントについては、こちらのページをご覧ください。
最終更新日 2026-02-23 18:09:41 +0530 IST
Yes
No
Send your feedback to us