Image Moderation
Image Moderation detecta y reconoce contenido inapropiado e inseguro en imágenes. Los criterios incluyen contenido sugestivo o explícitamente subido de tono, desnudez, violencia, gore, derramamiento de sangre y la presencia de armas y drogas. Puedes proporcionar un archivo .webp/.jpeg o .png como entrada al método open(). Este método devuelve el objeto de archivo de imagen como respuesta. Puedes establecer el modo de moderación como BASIC, MODERATE o ADVANCED de forma opcional. La imagen se procesa en el modo ADVANCED por defecto. La respuesta devuelve la probabilidad de cada criterio con sus puntuaciones de confianza, y la predicción de que la imagen sea safe_to_use o unsafe_to_use. Para conocer más sobre la instancia de componente zia utilizada a continuación, consulta esta sección de ayuda. Parámetros utilizados
| Nombre del parámetro | Tipo de dato | Definición |
|---|---|---|
| img | Image | Un parámetro obligatorio. Almacenará la imagen a analizar. |
| options | Array | Un parámetro opcional. Almacenará los valores del modo de análisis - "basic", "moderate" o "advanced" |
zia = app.zia()
img = open("sample.webp", "rb")
result = zia.moderate_image(img, options={"mode": "moderate"})
A continuación se muestra una respuesta de ejemplo:
{
"probability":{
"racy":"0.09",
"nudity":"0.06"
},
"confidence":"0.85",
"prediction":"safe_to_use"
}
Última actualización 2026-03-30 13:40:30 +0530 IST
Yes
No
Send your feedback to us