Bulk Read Rows
Catalyst te permite realizar trabajos de lectura masiva en una tabla específica presente en Data Store.
En el fragmento de código del SDK a continuación, el trabajo de lectura masiva puede leer miles de registros de una tabla específica y generar un archivo CSV con los resultados de la operación de lectura, si el trabajo es exitoso. La tabla se identifica por su Table ID único.
Nota: También puedes usar el método dataStore.table().bulkJob(‘read’ | ‘write’) para realizar un trabajo de lectura masiva o escritura masiva.
| Método utilizado | Descripción |
|---|---|
| bulkRead.createJob({ criteria, page, select_columns }) | Crear un nuevo trabajo de lectura masiva. | bulkRead.getStatus(job ID) | Obtener el estado de un trabajo de lectura masiva. |
| bulkRead.getResult(job ID) | Obtener el resultado de un trabajo de lectura masiva. |
Copia el fragmento de código del SDK a continuación para realizar un trabajo de lectura masiva en una tabla en particular.
copy
// lectura masiva
let datastore = app.datastore(); //Obtener la instancia del almacén de datos
const bulkRead = dataStore.table('sampleTable').bulkJob('read');
// crear trabajo de lectura masiva
const bulkReadJob = await bulkRead.createJob({
criteria: {
group_operator: 'or',
group: [
{
column_name: 'Department',
comparator: 'equal',
value: 'Marketing'
},
{
column_name: 'EmpID',
comparator: 'greater_than',
value: '1000'
},
{
column_name: 'EmpName',
comparator: 'starts_with',
value: 'S'
}
]
},
page: 1,
select_columns: ['EmpID', 'EmpName', 'Department']
};
{
url: 'https://hr.zylker.com/es/EmpRecords/_callback.php',
headers: {
'src': 'ZCatalyst',
'operation': 'bulkreadAPI'
},
params: {
'project_name': 'EmployeeDatabase'
}
});
// Obtener estado de lectura masiva
await bulkRead.getStatus(bulkReadJob.job_id);
// Obtener resultado de lectura masiva
await bulkRead.getResult(bulkReadJob.job_id);
Nota: Se pueden leer simultáneamente un máximo de 200,000 filas.
Última actualización 2026-03-30 13:40:30 +0530 IST
Yes
No
Send your feedback to us
Skip
Submit