Conceptos Clave
Antes de aprender sobre los casos de uso y la implementación de Image Moderation, es importante comprender sus conceptos fundamentales en detalle.
Modos de moderación
Image Moderation te permite seleccionar criterios específicos para detectar y marcar durante el proceso de moderación. Puedes hacer esto especificando uno de los tres modos de moderación en la entrada junto con el archivo de imagen.
Los tres modos de moderación disponibles son:
- Basic: Detecta solo desnudez en una imagen.
- Moderate: Detecta desnudez y contenido subido de tono en una imagen.
- Advanced: Detecta todos los criterios soportados que son desnudez, contenido subido de tono, contenido violento, drogas y armas.
Los niveles de precisión del proceso de moderación varían con cada modo de moderación. Los niveles de precisión son los siguientes:
- Basic: Puede detectar contenido inseguro con un 98% de precisión
- Moderate: Puede detectar contenido inseguro con un 96% de precisión
- Advanced: Puede detectar contenido inseguro con un 93-95% de precisión
Puedes considerar estos niveles de precisión y elegir un modo de moderación basándote en tu caso de uso, y habilitar la moderación solo para esos criterios.
Formato de entrada
Zia Image Moderation modera archivos de imagen de los siguientes formatos de archivo de entrada:
- .jpg/.jpeg
- .png
Puedes implementar Image Moderation en tu aplicación y habilitar la entrada según lo requieras, basándote en tu caso de uso. Por ejemplo, puedes moderar automáticamente los archivos de imagen subidos por los usuarios finales de tu aplicación y eliminar imágenes no deseadas en tiempo real.
Zia puede detectar mejor las instancias de contenido inseguro si son visibles y distinguibles en la imagen, o si no están obstruidas por contenido textual o marcas de agua.
La entrada proporcionada usando la solicitud de API contiene el archivo de imagen de entrada y el valor para el modo de moderación como basic, moderate o advanced. Si no especificas el modo de moderación, el modo avanzado se seguirá por defecto. El tamaño del archivo no debe exceder 10 MB.
Puedes consultar el formato de solicitud en la documentación de la API.
Formato de respuesta
Zia Image Moderation devuelve la respuesta de las siguientes maneras:
- En la consola: Cuando subes una imagen de muestra en la consola, devolverá los datos decodificados en dos formatos de respuesta:
- Formato textual:
La respuesta textual contiene una lista del contenido inseguro detectado, con los niveles de confianza de la detección como valores porcentuales. Proporciona la predicción como Safe to Use o Unsafe to Use con un porcentaje de confianza, basándose en el contenido detectado. En la respuesta textual, los criterios soportados se agrupan bajo las siguientes categorías:
* Violence: Weapons * Suggestive: Explicit nudity, Revealing clothes * Substance Abuse: Drugs * Visually Disturbing: Blood - Formato JSON: La respuesta JSON contiene la probabilidad de cada criterio del modo de moderación en un valor entre 0 y 1, basándose en el contenido detectado. Los criterios en la respuesta JSON son: racy, weapon, nudity, gore y drug. Proporciona la predicción como safe_to_use o unsafe_to_use, con una puntuación de confianza de 0 a 1, basándose en las probabilidades de todos los criterios. La puntuación de confianza de 0 a 1 se puede equiparar a valores porcentuales de la siguiente manera:
- Formato textual:
| Nivel de confianza en porcentaje | Puntuación de confianza con valores entre 0 y 1 |
|---|---|
| 0-9 | 0.0 |
| 3-9 | 0.0 |
| 10-19 | 0.0 |
| 20-29 | 0.0 |
| 30-39 | 0.0 |
| 40-49 | 0.01 |
| 50-59 | 0.12 |
| 60-69 | 0.23 |
| <70 | 0.63 |
- Usando los SDKs: Cuando envías un archivo de imagen usando una solicitud de API, solo recibirás una respuesta JSON que contiene los resultados en el formato especificado anteriormente. Puedes consultar el formato de respuesta JSON en la documentación de la API.
Última actualización 2026-03-20 21:51:56 +0530 IST
Yes
No
Send your feedback to us