Чтение данных из нескольких pubusb в один и тот же большой запрос

Этот вопрос больше связан с пониманием синтаксиса для подключения конвейера gcp в apache beam. вот как настроен мой текущий конвейер

options = dataflow_options(project_id=project_id, topic_name=topic_name, job_name=job_name)

p = apache_beam.Pipeline(options=options)

(p
    | 'read pubusb' >> apache_beam.io.ReadFromPubSub(topic=topic_path, with_attributes=True)
    | 'decode the message' >> apache_beam.ParDo(mydecoder())
    | 'persist to db' >> apache_beam.io.WriteToBigQuery(
            output_table,
            create_disposition=apache_beam.io.BigQueryDisposition.CREATE_IF_NEEDED,
            write_disposition=apache_beam.io.BigQueryDisposition.WRITE_APPEND
))

p.run()

Благодаря этому я могу создать конвейер, который выглядит так же.

Теперь, что я действительно хочу сделать (учитывая, что мой декодер такой же), это подключить несколько pubsub к одному и тому же декодеру, т.е.

Как я могу добиться этого в Apache Beam

Несколько вещей, которые я забыл упомянуть

  1. Все темы в основном представляют собой поток байтов.
  2. Нет общего ключа между данными при чтении из тем
  3. У каждой темы будет своя логика декодирования

Я смотрел на CoGroupby но для этого нужен общий ключ.

1 ответ

Решение

Используйте Свести объединить несколько PCollections в одно:

# Flatten takes a tuple of PCollection objects.
# Returns a single PCollection that contains all of the elements in the PCollection objects in that tuple.

 merged = (
     (pcoll1, pcoll2, pcoll3)
     # A list of tuples can be "piped" directly into a Flatten transform.
     | beam.Flatten())
Другие вопросы по тегам