Описание тега google-cloud-tpu

Google Cloud TPU (Tensor Processing Units) ускоряет рабочие нагрузки машинного обучения, разработанные с использованием TensorFlow. Этот тег используется для вопросов об использовании службы Google Cloud TPU. Темы могут варьироваться от пользовательского опыта службы, проблем с обучающей программой, написанной с помощью Tensorflow, проблем с квотами проекта, безопасности, аутентификации и т. Д.
1 ответ

TPUEstimator не работает с use_tpu=False

Я пытаюсь запустить модель с использованием TPUEstimator локально на ЦП, чтобы проверить, работает ли он, установив use_tpu=False по оценке инициализации. При запуске поезда я получаю эту ошибку. InternalError: failed to synchronously memcpy host-to…
17 авг '18 в 23:26
0 ответов

Google colab TPU и чтение с диска во время обучения

У меня есть 100 000 фотографий, и они не вписываются в оперативную память, поэтому мне нужно прочитать их с диска во время тренировки. dataset = tf.data.Dataset.from_tensor_slices(in_pics) dataset = dataset.map(extract_fn) def extract_fn(x): x = tf.…
1 ответ

Сохранить модель для обслуживания, но "ValueError: Должны быть указаны и метки, и логиты". при попытке экспортировать модель

Я хотел сохранить модель, чтобы сделать некоторые прогнозы на конкретных фотографиях. Вот моя функция обслуживания: def _serving_input_receiver_fn(): # Note: only handles one image at a time feat = tf.placeholder(tf.float32, shape=[None, 120, 50, 1]…
2 ответа

Обучение MNIST с ТПУ порождает ошибки

После учебника Запуск MNIST в облаке TPU: Я получаю следующую ошибку при попытке тренироваться: python /usr/share/models/official/mnist/mnist_tpu.py \ --tpu=$TPU_NAME \ --DATA_DIR=${STORAGE_BUCKET}/data \ --MODEL_DIR=${STORAGE_BUCKET}/output \ --use…
1 ответ

Не могу получить доступ к TPU из виртуальной машины в GCP

Попытка запустить этот код import os import tensorflow as tf from tensorflow.contrib import tpu from tensorflow.contrib.cluster_resolver import TPUClusterResolver def axy_computation(a, x, y): return a * x + y inputs = [ 3.0, tf.ones([3, 3], tf.floa…
2 ответа

Как сохранить модель Keras, обученную на ТПУ?

Я использую среду Colab для экспериментов с моделью lstm. Но не может спасти обученную модель. sess = tf.keras.backend.get_session() training_model = lstm_model(seq_len=100, batch_size=128, stateful=False) tpu_model = tf.contrib.tpu.keras_to_tpu_mod…
1 ответ

Преобразование кода из keras в tf.keras вызывает проблемы

Я изучаю машинный перевод в Керасе, используя код из этой статьи. Код статьи отлично работает на GPU и CPU как есть. Теперь я хочу воспользоваться преимуществами ТПУ Google Colab. Код не TPU-ify как есть, мне нужно двигаться в направлении TF. Следуя…
10 фев '19 в 01:10
0 ответов

Ошибка при использовании CrossShardOptimizer при использовании TPU

Я пытаюсь использовать CrossShardOptimizer при запуске моего кода на TPU. Я определяю свой оптимизатор здесь optimizer = tf.contrib.tpu.CrossShardOptimizer(tf.train.AdamOptimizer(1.0)).minimize(loss) И это код, который я использую для запуска сеанса…
23 окт '18 в 08:07
1 ответ

Переписать tf.Session в API tf.Estimator

У меня есть некоторый код, который был написан с помощью низкоуровневого API tf.Session, и, поскольку я хочу использовать его на TPU, лучше переписать его в API tf.Estimator, поскольку для ускорения TPU существует класс TPUEstimator. Есть ли стандар…
29 авг '18 в 16:34
3 ответа

ТПУ терминологическая путаница

Так что я знаю, как определяются эпохи, этапы обучения, размеры пакетов и тому подобное, но мне очень трудно обернуть голову вокруг терминологии TPU, такой как циклы поезда, итерации для цикла и так далее. Я читал это, но я все еще в замешательстве.…
0 ответов

У объекта "Модель" нет атрибута "Оптимизатор" Google Colab TPU

Я бегу классификатор на Google Colab ТПУ. он работает нормально с GPU. Но я получаю сообщение об ошибке "У модели" нет атрибута "оптимизатор" при работе на TPU. Вот ссылка на git с полным кодом и сообщением об ошибке.
3 ответа

API обнаружения объектов Tensorflow с обучением TPU - отображение более детальных графиков Tensorboard

Я следовал этому руководству по API обнаружения объектов Tensorflow и успешно обучил свою собственную модель обнаружения объектов с использованием облачных TPU Google. Однако проблема в том, что на Tensorboard у графиков, которые я вижу, есть только…
1 ответ

Ошибка TPUEstimator - AttributeError: у модуля tenensflow.contrib.tpu.python.ops.tpu_ops нет атрибута cross_replica_sum

Я написал код тензорного потока с использованием TPUEstimator, но у меня возникают проблемы при запуске его в режиме use_tpu=False. Я хотел бы запустить его на своем локальном компьютере, чтобы убедиться, что все операции совместимы с TPU. Код работ…
0 ответов

TPU работает так же медленно, как и процессор, при использовании keras_to_tpu_model в colab

Я использую tf.contrib.tpu.keras_to_tpu_model чтобы мой код мог работать на TPU, но завершение эпохи заняло 170 часов, в то время как процессор занимал то же время, а GPU - только 40 часов за эпоху. Я пытался настроить размер пакета, но ничего не из…
1 ответ

Создание сводки для градиентов через облачную TPU host_call_fn()?

Насколько я понимаю, host_call и host_call_fn() передают статистику из TPU в хост. Однако в инструкциях не очень ясно, как генерировать сводку для чего-либо нескалярного. Например, я попытался изменить официальный файл mnist_tpu.py, чтобы получить с…
16 май '18 в 02:32
1 ответ

Не было зарегистрировано OpKernel для поддержки Op 'ShutdownDistributedTPU' с этими атрибутами. Зарегистрированные устройства

Я пытаюсь восстановить модель Mobile-net V2, используя версию TensorFlow 1.7.0 по этой ссылке, и используя следующий код, но получаю ошибку. import tensorflow as tf dir(tf.contrib) tf.reset_default_graph() v1 = tf.get_variable("v1", shape=[3]) v2 = …
21 апр '18 в 07:54
2 ответа

Есть ли достойный обходной путь для сохранения контрольных точек на локальном диске при использовании TPU в Tensorflow?

Ответ на этот вопрос: Как сохранить файл контрольной точки Tensorflow из Google Colab Laboratory в режиме TPU? Официальный способ сохранения контрольной точки при использовании TPU Tensorflow - использование облачной службы Google. Я работаю, если е…
1 ответ

GCE VM не может подключиться к TPU

Я следовал инструкции на https://cloud.google.com/tpu/docs/custom-setup. и теперь я пытаюсь запустить маленький пример из https://cloud.google.com/tpu/docs/quickstart Но это висит на sess.run(tpu.initialize_system()) Я подозреваю, что он не может по…
1 ответ

Как узнать больше об устройстве Cloud TPU, с которым вы запускаете свои программы?

Используем ли мы Google Colab или напрямую обращаемся к облачным TPU, приведенная ниже программа предоставляет только ограниченную информацию о базовых TPU: import os import tensorflow as tf tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR'] pri…
13 ноя '18 в 18:40
2 ответа

Ошибка паники в облаке Google ТПУ

Я могу открыть сеанс ctpu и получить нужный мне код из своего репозитория git, но когда я запускаю свой код тензорного потока из облачной оболочки, я получаю сообщение о том, что TPU отсутствует, и моя программа падает. Вот сообщение об ошибке, кото…