Распределенное обучение с TensorFlow2 не работает
Я пытаюсь заставить распределенный TF работать в VS-Code с версией Tensorflow 2.0.0a (версия CPU).
Я использую Windows и Linux System (два разных компьютера), и оба работают хорошо в одиночку.
Для распространяемого TF я следовал учебному руководству на https://www.tensorflow.org/alpha/guide/distribute_strategy.
Я уже пробовал разные порты и отключал брандмауэры. Я также попытался переключить основную систему с Windows на Linux, но теперь я думаю, что это может быть проблема с кодом или версия TF, которая помечена как экспериментальная.
from __future__ import absolute_import, division, print_function, unicode_literals
import tensorflow_datasets as tfds
import tensorflow as tf
import json
import os
BUFFER_SIZE = 10000
BATCH_SIZE = 64
def scale(image, label):
image = tf.cast(image, tf.float32)
image /= 255
return image, label
datasets, info = tfds.load(name='mnist', with_info=True, as_supervised=True)
train_datasets_unbatched = datasets['train'].map(scale).shuffle(BUFFER_SIZE)
train_datasets = train_datasets_unbatched.batch(BATCH_SIZE)
def build_and_compile_cnn_model():
model = tf.keras.Sequential([
tf.keras.layers.Conv2D(32, 3, activation='relu', input_shape=(28, 28, 1)),
tf.keras.layers.MaxPooling2D(),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(64, activation='relu'),
tf.keras.layers.Dense(10, activation='softmax')
])
model.compile(
loss=tf.keras.losses.sparse_categorical_crossentropy,
optimizer=tf.keras.optimizers.SGD(learning_rate=0.001),
metrics=['accuracy'])
return model
#multiworker conf:
os.environ['TF_CONFIG'] = json.dumps({
'cluster': {
'worker': ["192.168.0.12:2468", "192.168.0.13:1357"]
},
'task': {'type': 'worker', 'index': 0}
})
strategy = tf.distribute.experimental.MultiWorkerMirroredStrategy()
NUM_WORKERS = 2
GLOBAL_BATCH_SIZE = 64 * NUM_WORKERS
#--------------------------------------------------------------------
#In the following line the error occurs
train_datasets = train_datasets_unbatched.batch(GLOBAL_BATCH_SIZE)
#--------------------------------------------------------------------
with strategy.scope():
multi_worker_model = build_and_compile_cnn_model()
multi_worker_model.fit(x=train_datasets, epochs=3)
Я ожидаю, что работник начнет процесс обучения, но вместо этого я получаю ошибку:
"F tenorflow/core/framework/device_base.cc:33] Устройство не реализует name()"
1 ответ
Насколько я знаю, у каждого работника должен быть уникальный индекс задачи, например:
на первой машине вы должны иметь:
os.environ['TF_CONFIG'] = json.dumps({
'cluster': {
'worker': ["192.168.0.12:2468", "192.168.0.13:1357"]
},
'task': {'type': 'worker', 'index': 0}
})
и на втором:
os.environ['TF_CONFIG'] = json.dumps({
'cluster': {
'worker': ["192.168.0.12:2468", "192.168.0.13:1357"]
},
'task': {'type': 'worker', 'index': 1}
})