Image Moderation
Image Moderation detecta y reconoce contenido inapropiado e inseguro en imágenes. Los criterios incluyen contenido sugestivo o explícitamente subido de tono, desnudez, violencia, gore, derramamiento de sangre y la presencia de armas y drogas. Puedes proporcionar un archivo .jpg/.jpeg o .png como entrada. Consulta la documentación de la API para los formatos de solicitud y respuesta. Puedes establecer el modo de moderación como BASIC, MODERATE o ADVANCED opcionalmente. La imagen se procesa en el modo ADVANCED por defecto. La respuesta devuelve la probabilidad de cada criterio con sus puntuaciones de confianza, y la predicción de que la imagen sea safe_to_use o unsafe_to_use. La referencia zia utilizada a continuación se define en la página de instancia del componente. La promesa devuelta aquí se resuelve a un objeto JSON.
let fs = require('fs');
zia.moderateImage(fs.createReadStream('./weapon.png'), {mode: 'moderate'})
//Pasa el archivo de entrada y el modo
.then((result) => { console.log(result); }).catch((err) => console.log(err.toString()));
//Registrar errores en Catalyst Logs
A continuación se muestra una respuesta de ejemplo que recibirás. La respuesta es la misma para ambas versiones de Node.js.
Node js
{"probability":{"racy":"0.09","nudity":"0.06"},"confidence":"0.85","prediction":"safe_to#_use"}
Última actualización 2026-03-30 13:40:30 +0530 IST
Yes
No
Send your feedback to us