Aviso:

Para brindarle información de soporte completa de manera más rápida, el contenido de esta página ha sido traducido al español mediante traducción automática. Para consultar la información de soporte más precisa, consulte la versión en inglés de este contenido.

Escritura masiva de filas

Catalyst te permite realizar trabajos de escritura masiva en una tabla específica presente en el Data Store. La operación de escritura masiva puede obtener miles de registros de un archivo CSV cargado en Stratus e insertarlos en una tabla específica. La tabla se referencia por su table ID único generado por Catalyst durante la creación. La columna en la que se debe realizar la operación de escritura se referencia por su ID de columna único.

Note: Para realizar una operación de escritura masiva, primero debes cargar los datos requeridos como un archivo CSV en Stratus.
Nombre del parámetro Tipo de dato Definición
tableID String Un parámetro obligatorio. Contendrá el ID de la tabla en la que se deben escribir los datos.
find_by String Un parámetro obligatorio. Contendrá el nombre de la columna en la que se deben escribir los datos.
fk_mapping Array Un parámetro obligatorio. Contendrá los detalles de local_column y reference_column.
operation String Un parámetro obligatorio. El valor de este parámetro debe ser insert.
object_details JSON Object
  • bucket_name: El nombre del bucket, donde se almacena el objeto.
  • object_key: Puede contener la ruta o la URL del objeto del objeto requerido.
  • version_id: Si el bucket tiene el versionado habilitado, entonces el versionID específico del archivo se almacenará en este atributo.
Copia el fragmento del SDK a continuación para realizar un trabajo de escritura masiva en una tabla en particular. Para conocer más sobre la instancia del componente datastore_service utilizada a continuación, consulta esta sección de ayuda.
copy
datastore_service = app.datastore()
bulk_write = datastore_service.table("Sample").bulk_write()
object_details = {
  "bucket_name": "zcstratus12345",
  "object_key": "sample.csv",
  "version_id": "64832huidksnd83"
}
#create bulk write job
bulk_write_job = bulk_write.create_job(object_details, {
  "find_by": "S1",
  "fk_mapping": [
    {"local_column": "EmployeeID", "reference_column": "EmpId"},
    {"local_column": "DepartmentID", "reference_column": "DepId"}
  ],
  "operation": "insert"
})
#get bulk write status
status = bulk_write.get_status('6759000000167103')
#get bulk write result
result = bulk_write.get_result('6759000000167103')

Note: Se pueden escribir un máximo de 100,000 filas a la vez.
Info : Consulta la tabla de SDK Scopes para determinar el nivel de permiso requerido para realizar la operación anterior.

Última actualización 2026-03-20 21:51:56 +0530 IST

EN ESTA PÁGINA

ENLACES RELACIONADOS

Data Store Help SDK Scopes