Изучение модели Keras с использованием распределенного тензорного потока

У меня два GPU установлены на двух разных машинах. Я хочу построить кластер, который позволит мне изучать модель Keras, используя два GPU вместе. Блог Keras показывает два фрагмента кода в разделе "Распределенное обучение" и ссылается на официальную документацию Tensorflow.

Моя проблема в том, что я не знаю, как изучить мою модель и применить на практике то, что сообщается в документации Tensorflow. Например, что мне делать, если я хочу выполнить следующий код в кластере из нескольких графических процессоров?

# For a single-input model with 2 classes (binary classification):

model = Sequential()
model.add(Dense(32, activation='relu', input_dim=100))
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, epochs=10, batch_size=32)

Ответ 1

В первой и второй части блога он объясняет, как использовать модели keras с тензорным потоком.

Также я нашел этот пример керас с распределенным обучением.

А вот еще один с хороводом.