Как узнать больше об устройстве Cloud TPU, с которым вы запускаете свои программы?
Используем ли мы Google Colab или напрямую обращаемся к облачным TPU, приведенная ниже программа предоставляет только ограниченную информацию о базовых TPU:
import os
import tensorflow as tf
tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR']
print ('TPU address is', tpu_address)
def printTPUDevices():
with tf.Session(tpu_address) as session:
devices = session.list_devices()
print ('TPU devices:')
return devices
printTPUDevices()
Есть ли какая-либо документация программно или с помощью команд bash для отображения дополнительной информации, см. Этот список, например, https://gist.github.com/neomatrix369/256913dcf77cdbb5855dd2d7f5d81b84.
1 ответ
Архитектура системы Cloud TPU немного отличается от архитектуры GPU, поэтому этот уровень информации недоступен.
Поскольку клиент общается с удаленным сервером TensorFlow и использует XLA, код клиента не нужно изменять в зависимости от доступных функций в TPU, удаленный сервер будет компилировать машинные инструкции на основе возможностей TPU.
Однако Cloud TPU Profiler предоставляет более низкое представление о TPU для оптимизации производительности. Вы можете увидеть на уровне трассировки, какие операции занимают память и время вычислений.