Aviso:

Para brindarle información de soporte completa de manera más rápida, el contenido de esta página ha sido traducido al español mediante traducción automática. Para consultar la información de soporte más precisa, consulte la versión en inglés de este contenido.

Bulk Write Rows

Catalyst te permite realizar trabajos de escritura masiva en una tabla específica presente en Data Store. La operación de escritura masiva puede obtener miles de registros de un archivo CSV subido en Stratus e insertarlos en una tabla específica.

La tabla se identifica por su table ID único que es generado por Catalyst durante la creación. La columna en la que se debe realizar la operación de escritura se identifica por su column ID único.

Nota: Para realizar una operación de escritura masiva, debes primero subir los datos requeridos como un archivo CSV en Stratus.

Durante el trabajo de escritura, se hará referencia al archivo usando los siguientes atributos:

  • bucketName: El nombre del bucket, donde se almacena el objeto.
  • objectKey: Puede contener la ruta o la URL del objeto del objeto requerido.
  • versionID: Si el bucket tiene el versionado habilitado, entonces el versionID específico del archivo se almacenará en este atributo.
Método utilizado Descripción
bulkWrite.createJob(objectDetails, {find_by,fk_mapping,operation}) Crear un nuevo trabajo de escritura masiva en una tabla específica.
bulkWrite.status(job ID) Obtener el estado de una operación de escritura masiva.
bulkWrite.result(job ID) Obtener el resultado de una operación de escritura masiva.

Copia el fragmento de código del SDK a continuación para realizar un trabajo de escritura masiva en una tabla en particular.

copy
let datastore = app.datastore(); // obtener instancia de datastore
const bulkWrite = datastore.table('sampleTable').bulkJob('write');
const objectDetails = {
  "bucket_name": "zylker14266",
  "object_key": "emp_records.csv",
  "version_id": "64832huidksnd83"
};
// crear trabajo de escritura masiva
const bulkWriteJob = await bulkWrite.createJob(objectDetails, {
  find_by: 'EmpID',
  fk_mapping: [
    { local_column: 'EmployeeID', reference_column: 'EmpID' },
    { local_column: 'DepartmentID', reference_column: 'DeptID' }
  ],
  operation: 'insert'
});
// obtener estado de escritura masiva
await bulkWrite.getStatus(bulkWriteJob.job_id);
// obtener resultado de escritura masiva
await bulkWrite.getResult(bulkWriteJob.job_id);

Nota: Se pueden escribir un máximo de 100,000 filas a la vez.

Última actualización 2026-03-30 13:40:30 +0530 IST

EN ESTA PÁGINA

ENLACES RELACIONADOS

Data Store