Описание тега google-cloud-tpu
Google Cloud TPU (Tensor Processing Units) ускоряет рабочие нагрузки машинного обучения, разработанные с использованием TensorFlow. Этот тег используется для вопросов об использовании службы Google Cloud TPU. Темы могут варьироваться от пользовательского опыта службы, проблем с обучающей программой, написанной с помощью Tensorflow, проблем с квотами проекта, безопасности, аутентификации и т. Д.
1
ответ
TPUEstimator не работает с use_tpu=False
Я пытаюсь запустить модель с использованием TPUEstimator локально на ЦП, чтобы проверить, работает ли он, установив use_tpu=False по оценке инициализации. При запуске поезда я получаю эту ошибку. InternalError: failed to synchronously memcpy host-to…
17 авг '18 в 23:26
0
ответов
Google colab TPU и чтение с диска во время обучения
У меня есть 100 000 фотографий, и они не вписываются в оперативную память, поэтому мне нужно прочитать их с диска во время тренировки. dataset = tf.data.Dataset.from_tensor_slices(in_pics) dataset = dataset.map(extract_fn) def extract_fn(x): x = tf.…
17 ноя '18 в 01:11
1
ответ
Сохранить модель для обслуживания, но "ValueError: Должны быть указаны и метки, и логиты". при попытке экспортировать модель
Я хотел сохранить модель, чтобы сделать некоторые прогнозы на конкретных фотографиях. Вот моя функция обслуживания: def _serving_input_receiver_fn(): # Note: only handles one image at a time feat = tf.placeholder(tf.float32, shape=[None, 120, 50, 1]…
21 сен '18 в 09:37
2
ответа
Обучение MNIST с ТПУ порождает ошибки
После учебника Запуск MNIST в облаке TPU: Я получаю следующую ошибку при попытке тренироваться: python /usr/share/models/official/mnist/mnist_tpu.py \ --tpu=$TPU_NAME \ --DATA_DIR=${STORAGE_BUCKET}/data \ --MODEL_DIR=${STORAGE_BUCKET}/output \ --use…
25 окт '18 в 20:31
1
ответ
Не могу получить доступ к TPU из виртуальной машины в GCP
Попытка запустить этот код import os import tensorflow as tf from tensorflow.contrib import tpu from tensorflow.contrib.cluster_resolver import TPUClusterResolver def axy_computation(a, x, y): return a * x + y inputs = [ 3.0, tf.ones([3, 3], tf.floa…
23 окт '18 в 09:44
2
ответа
Как сохранить модель Keras, обученную на ТПУ?
Я использую среду Colab для экспериментов с моделью lstm. Но не может спасти обученную модель. sess = tf.keras.backend.get_session() training_model = lstm_model(seq_len=100, batch_size=128, stateful=False) tpu_model = tf.contrib.tpu.keras_to_tpu_mod…
26 дек '18 в 21:16
1
ответ
Преобразование кода из keras в tf.keras вызывает проблемы
Я изучаю машинный перевод в Керасе, используя код из этой статьи. Код статьи отлично работает на GPU и CPU как есть. Теперь я хочу воспользоваться преимуществами ТПУ Google Colab. Код не TPU-ify как есть, мне нужно двигаться в направлении TF. Следуя…
10 фев '19 в 01:10
0
ответов
Ошибка при использовании CrossShardOptimizer при использовании TPU
Я пытаюсь использовать CrossShardOptimizer при запуске моего кода на TPU. Я определяю свой оптимизатор здесь optimizer = tf.contrib.tpu.CrossShardOptimizer(tf.train.AdamOptimizer(1.0)).minimize(loss) И это код, который я использую для запуска сеанса…
23 окт '18 в 08:07
1
ответ
Переписать tf.Session в API tf.Estimator
У меня есть некоторый код, который был написан с помощью низкоуровневого API tf.Session, и, поскольку я хочу использовать его на TPU, лучше переписать его в API tf.Estimator, поскольку для ускорения TPU существует класс TPUEstimator. Есть ли стандар…
29 авг '18 в 16:34
3
ответа
ТПУ терминологическая путаница
Так что я знаю, как определяются эпохи, этапы обучения, размеры пакетов и тому подобное, но мне очень трудно обернуть голову вокруг терминологии TPU, такой как циклы поезда, итерации для цикла и так далее. Я читал это, но я все еще в замешательстве.…
14 сен '18 в 15:58
0
ответов
У объекта "Модель" нет атрибута "Оптимизатор" Google Colab TPU
Я бегу классификатор на Google Colab ТПУ. он работает нормально с GPU. Но я получаю сообщение об ошибке "У модели" нет атрибута "оптимизатор" при работе на TPU. Вот ссылка на git с полным кодом и сообщением об ошибке.
27 окт '18 в 15:25
3
ответа
API обнаружения объектов Tensorflow с обучением TPU - отображение более детальных графиков Tensorboard
Я следовал этому руководству по API обнаружения объектов Tensorflow и успешно обучил свою собственную модель обнаружения объектов с использованием облачных TPU Google. Однако проблема в том, что на Tensorboard у графиков, которые я вижу, есть только…
22 авг '18 в 11:33
1
ответ
Ошибка TPUEstimator - AttributeError: у модуля tenensflow.contrib.tpu.python.ops.tpu_ops нет атрибута cross_replica_sum
Я написал код тензорного потока с использованием TPUEstimator, но у меня возникают проблемы при запуске его в режиме use_tpu=False. Я хотел бы запустить его на своем локальном компьютере, чтобы убедиться, что все операции совместимы с TPU. Код работ…
17 июл '18 в 10:50
0
ответов
TPU работает так же медленно, как и процессор, при использовании keras_to_tpu_model в colab
Я использую tf.contrib.tpu.keras_to_tpu_model чтобы мой код мог работать на TPU, но завершение эпохи заняло 170 часов, в то время как процессор занимал то же время, а GPU - только 40 часов за эпоху. Я пытался настроить размер пакета, но ничего не из…
15 ноя '18 в 03:24
1
ответ
Создание сводки для градиентов через облачную TPU host_call_fn()?
Насколько я понимаю, host_call и host_call_fn() передают статистику из TPU в хост. Однако в инструкциях не очень ясно, как генерировать сводку для чего-либо нескалярного. Например, я попытался изменить официальный файл mnist_tpu.py, чтобы получить с…
16 май '18 в 02:32
1
ответ
Не было зарегистрировано OpKernel для поддержки Op 'ShutdownDistributedTPU' с этими атрибутами. Зарегистрированные устройства
Я пытаюсь восстановить модель Mobile-net V2, используя версию TensorFlow 1.7.0 по этой ссылке, и используя следующий код, но получаю ошибку. import tensorflow as tf dir(tf.contrib) tf.reset_default_graph() v1 = tf.get_variable("v1", shape=[3]) v2 = …
21 апр '18 в 07:54
2
ответа
Есть ли достойный обходной путь для сохранения контрольных точек на локальном диске при использовании TPU в Tensorflow?
Ответ на этот вопрос: Как сохранить файл контрольной точки Tensorflow из Google Colab Laboratory в режиме TPU? Официальный способ сохранения контрольной точки при использовании TPU Tensorflow - использование облачной службы Google. Я работаю, если е…
26 окт '18 в 23:53
1
ответ
GCE VM не может подключиться к TPU
Я следовал инструкции на https://cloud.google.com/tpu/docs/custom-setup. и теперь я пытаюсь запустить маленький пример из https://cloud.google.com/tpu/docs/quickstart Но это висит на sess.run(tpu.initialize_system()) Я подозреваю, что он не может по…
08 июн '18 в 18:48
1
ответ
Как узнать больше об устройстве Cloud TPU, с которым вы запускаете свои программы?
Используем ли мы Google Colab или напрямую обращаемся к облачным TPU, приведенная ниже программа предоставляет только ограниченную информацию о базовых TPU: import os import tensorflow as tf tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR'] pri…
13 ноя '18 в 18:40
2
ответа
Ошибка паники в облаке Google ТПУ
Я могу открыть сеанс ctpu и получить нужный мне код из своего репозитория git, но когда я запускаю свой код тензорного потока из облачной оболочки, я получаю сообщение о том, что TPU отсутствует, и моя программа падает. Вот сообщение об ошибке, кото…
13 июл '18 в 07:35