Как узнать больше об устройстве Cloud TPU, с которым вы запускаете свои программы?

Используем ли мы Google Colab или напрямую обращаемся к облачным TPU, приведенная ниже программа предоставляет только ограниченную информацию о базовых TPU:

import os
import tensorflow as tf

tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR']
print ('TPU address is', tpu_address)

def printTPUDevices():
   with tf.Session(tpu_address) as session:
      devices = session.list_devices()

      print ('TPU devices:')
      return devices

printTPUDevices()

Есть ли какая-либо документация программно или с помощью команд bash для отображения дополнительной информации, см. Этот список, например, https://gist.github.com/neomatrix369/256913dcf77cdbb5855dd2d7f5d81b84.

1 ответ

Архитектура системы Cloud TPU немного отличается от архитектуры GPU, поэтому этот уровень информации недоступен.

Поскольку клиент общается с удаленным сервером TensorFlow и использует XLA, код клиента не нужно изменять в зависимости от доступных функций в TPU, удаленный сервер будет компилировать машинные инструкции на основе возможностей TPU.

Однако Cloud TPU Profiler предоставляет более низкое представление о TPU для оптимизации производительности. Вы можете увидеть на уровне трассировки, какие операции занимают память и время вычислений.

Другие вопросы по тегам