Lectura masiva de filas
Catalyst te permite realizar trabajos de lectura masiva en una tabla específica presente en el Data Store. En el fragmento del SDK a continuación, el trabajo de lectura masiva puede leer miles de registros de una tabla específica y generar un archivo CSV que contiene los resultados de la operación de lectura, si el trabajo es exitoso. La tabla se referencia por su Table ID único. Para conocer más sobre la instancia del componente datastore_service utilizada a continuación, consulta esta sección de ayuda.
| Nombre del parámetro | Tipo de dato | Definición |
|---|---|---|
| criteria | Array | Un parámetro obligatorio. Contendrá las condiciones en base a las cuales se deben leer las filas. |
| page | Numeric | Un parámetro obligatorio. Contendrá el número de página de filas que se deben leer. |
| select_columns | Array | Un parámetro obligatorio. Contendrá las columnas específicas que se deben leer. |
copy
#Lectura masiva
datastore_service = app.datastore()
bulk_read = datastore_service.table("sampleTable").bulk_read()
#Crear trabajo de lectura masiva
bulk_read_Job = bulk_read.create_job({
"criteria": {
"group_operator": 'or',
"group": [
{
"column_name": 'Department',
"comparator": 'equal',
"value": 'Marketing'
},
{
"column_name": 'EmpId',
"comparator": 'greater_than',
"value": '1000'
},
{
"column_name": 'EmpName',
"comparator": 'starts_with',
"value": 'S'
}
]
},
"page": 1,
"select_columns": ['EmpId', 'EmpName', 'Department']
})
#Obtener estado de lectura masiva
status = bulk_read.get_status(bulk_read_Job['job_id'])
#Obtener resultado de lectura masiva
result = bulk_read.get_result(bulk_read_Job['job_id'])
Note: Se pueden leer un máximo de 200,000 filas simultáneamente.
Info : Consulta la tabla de SDK Scopes para determinar el nivel de permiso requerido para realizar la operación anterior.
Última actualización 2026-03-30 13:40:30 +0530 IST
Yes
No
Send your feedback to us
Skip
Submit