Прогноз большого запроса с использованием модели sk-learn
Я создал модель sklearn на моей локальной машине. Затем я загрузил его в хранилище Google. Я создал модель и версию в AI Platform, используя ту же модель. Это работает для онлайн-прогнозирования. Теперь я хочу выполнить пакетное прогнозирование и сохранить данные в большом запросе, так как он обновляет большую таблицу запросов каждый раз, когда я выполняю прогнозирование.
Может кто-нибудь подсказать мне, как это сделать?
1 ответ
AI Platform в настоящее время не поддерживает запись результатов прогнозирования в BigQuery.
Вы можете записать результаты прогноза в BigQuery с помощью Dataflow. Здесь есть два варианта:
- Создать задание потока данных, которое делает прогнозы самостоятельно.
- Создайте задание потока данных, которое использует платформу AI для получения прогнозов модели. Вероятно, это будет использовать онлайн-прогнозы.
В обоих случаях вы можете определить приемник BigQuery для вставки новых строк в вашу таблицу.
Кроме того, вы можете использовать облачные функции для обновления таблицы BigQuery всякий раз, когда в GCS появляется новый файл. Это решение будет выглядеть так:
- Используйте gcloud для запуска пакетного прогнозирования (`задания gcloud ml-engine отправляют прогноз... --output-path="gs://[My Bucket]/batch-вести tions / "
- Результаты записываются в несколько файлов:
gs://[My Bucket]/batch-predictions/prediction.results-*-of-NNNNN
- Облачная функция запускается для анализа и вставки результатов в BigQuery. Этот средний пост объясняет, как это настроить