Aviso:

Para brindarle información de soporte completa de manera más rápida, el contenido de esta página ha sido traducido al español mediante traducción automática. Para consultar la información de soporte más precisa, consulte la versión en inglés de este contenido.

Image Moderation

Image Moderation detecta y reconoce contenido inapropiado e inseguro en imágenes. Los criterios incluyen contenido sugestivo o explícitamente subido de tono, desnudez, violencia, gore, derramamiento de sangre y la presencia de armas y drogas. Puedes proporcionar un archivo .jpg/.jpeg o .png como entrada. Consulta la documentación de la API para los formatos de solicitud y respuesta. Puedes establecer el modo de moderación como BASIC, MODERATE o ADVANCED opcionalmente. La imagen se procesa en el modo ADVANCED por defecto. La respuesta devuelve la probabilidad de cada criterio con sus puntuaciones de confianza, y la predicción de que la imagen sea safe_to_use o unsafe_to_use. La referencia zia utilizada a continuación se define en la página de instancia del componente. La promesa devuelta aquí se resuelve a un objeto JSON.

copy
let fs = require('fs');
zia.moderateImage(fs.createReadStream('./weapon.png'), {mode: 'moderate'}) 
//Pasa el archivo de entrada y el modo
.then((result) => { console.log(result); }).catch((err) => console.log(err.toString())); 
//Registrar errores en Catalyst Logs

A continuación se muestra una respuesta de ejemplo que recibirás. La respuesta es la misma para ambas versiones de Node.js.

Node js

copy
{"probability":{"racy":"0.09","nudity":"0.06"},"confidence":"0.85","prediction":"safe_to#_use"}

Última actualización 2026-03-30 13:40:30 +0530 IST

EN ESTA PÁGINA

ENLACES RELACIONADOS

Image moderation - API