Image Moderation
Introducción
Image Moderation es un componente de Catalyst Zia Services que monitorea y reconoce contenido inapropiado e inseguro en imágenes. Es una sub-funcionalidad de moderación de contenido que decide si una imagen particular es segura para el trabajo, basándose en un conjunto predeterminado de reglas. Zia Image Moderation monitorea y reconoce los siguientes criterios en una imagen:
- Desnudez explícita
- Contenido sugerente o provocativo
- Derramamiento de sangre, gore y violencia
- Drogas y sustancias
- Armas
Image Moderation se usa para asegurar que el contenido generado por los usuarios en tus aplicaciones de Catalyst no viole los estándares y directrices de la aplicación. Puedes mantener la reputación de tu marca y el decoro general señalando, filtrando o eliminando automáticamente el contenido inapropiado detectado.
Catalyst proporciona Image Moderation en los paquetes SDK de Java, Node.js y Python, que puedes integrar en tu aplicación web o Android de Catalyst. La consola de Catalyst proporciona acceso fácil a plantillas de código para estos entornos que puedes implementar en el código de tu aplicación.
También puedes probar Image Moderation usando imágenes de ejemplo en la consola y obtener los resultados de moderación basados en los atributos mencionados anteriormente. Image Moderation también proporciona una puntuación de confianza para cada resultado que te permite verificar su precisión y tomar decisiones informadas sobre los próximos pasos a seguir.
Puedes consultar la documentación del Java SDK, la documentación del Node.js SDK y la documentación del Python SDK para ejemplos de código de Image Moderation. Consulta la documentación de API para conocer la API disponible para Image Moderation.
Puedes obtener más información sobre los otros componentes de Catalyst Zia Services en esta página.
Última actualización 2026-03-20 21:51:56 +0530 IST
Yes
No
Send your feedback to us