Любые примеры загрузки в BigQuery с использованием запроса POST и клиентской библиотеки Java?
У кого-нибудь есть примеры создания нового задания вставки для BigQuery, используя оба:
- клиентская библиотека bigquery java
- создание задания загрузки из запроса POST, задокументированного здесь: https://developers.google.com/bigquery/loading-data-into-bigquery
1 ответ
Решение
Вам нужно вызвать метод bigquery.jobs(). Insert (...).
Я не знаю, что вы сделали, но вы должны иметь аутентифицированный клиент для API, по крайней мере, как:
bigquery = new Bigquery.Builder(HTTP_TRANSPORT, JSON_FACTORY, credentials)
.setApplicationName("...").build();
Это упрощенная версия метода insertRows, который я написал с использованием библиотеки google-http-client для java и bigquery-api (вы должны проверить, существует ли набор данных, проверить идентификаторы и т. Д.):
public Long insertRows(String projectId,
String datasetId,
String tableId,
InputStream schema,
AbstractInputStreamContent data) {
try {
// Defining table fields
ObjectMapper mapper = new ObjectMapper();
List<TableFieldSchema> schemaFields = mapper.readValue(schema, new TypeReference<List<TableFieldSchema>>(){});
TableSchema tableSchema = new TableSchema().setFields(schemaFields);
// Table reference
TableReference tableReference = new TableReference()
.setProjectId(projectId)
.setDatasetId(datasetId)
.setTableId(tableId);
// Load job configuration
JobConfigurationLoad loadConfig = new JobConfigurationLoad()
.setDestinationTable(tableReference)
.setSchema(tableSchema)
// Data in Json format (could be CSV)
.setSourceFormat("NEWLINE_DELIMITED_JSON")
// Table is created if it does not exists
.setCreateDisposition("CREATE_IF_NEEDED")
// Append data (not override data)
.setWriteDisposition("WRITE_APPEND");
// If your data are coming from Google Cloud Storage
//.setSourceUris(...);
// Load job
Job loadJob = new Job()
.setJobReference(
new JobReference()
.setJobId(Joiner.on("-").join("INSERT", projectId, datasetId,
tableId, DateTime.now().toString("dd-MM-yyyy_HH-mm-ss-SSS")))
.setProjectId(projectId))
.setConfiguration(new JobConfiguration().setLoad(loadConfig));
// Job execution
Job createTableJob = bigquery.jobs().insert(projectId, loadJob, data).execute();
// If loading data from Google Cloud Storage
//createTableJob = bigquery.jobs().insert(projectId, loadJob).execute();
String jobId = createTableJob.getJobReference().getJobId();
// Wait for job completion
createTableJob = waitForJob(projectId, createTableJob);
Long rowCount = createTableJob != null ? createTableJob.getStatistics().getLoad().getOutputRows() : 0l;
log.info("{} rows inserted in table '{}' (dataset: '{}', project: '{}')", rowCount, tableId, datasetId, projectId);
return rowCount;
}
catch (IOException e) { throw Throwables.propagate(e); }
}
Я не знаю формат ваших данных, но если вы используете файлы, вы можете добавить такую функцию:
public Long insertRows(String projectId, String datasetId, String tableId, File schema, File data) {
try {
return insertRows(projectId, datasetId, tableId, new FileInputStream(schema),
new FileContent(MediaType.OCTET_STREAM.toString(), data));
}
catch (FileNotFoundException e) { throw Throwables.propagate(e); }
}