Недавно я играл с TensorFlow, и я упомянул, что структура не может использовать все мои доступные вычислительные ресурсы. В разделе "Сверточные нейронные сети" упоминается, что
Наивное использование асинхронных обновлений параметров модели приводит к субоптимальным результатам обучения, поскольку индивидуальная модельная реплика может быть обучена устаревшей копии параметров модели. И наоборот, использование полностью синхронных обновлений будет таким же медленным, как и самая медленная реплика модели.
Хотя они упоминают это как в учебнике, так и в whitepaper, я действительно не нашел способ сделать асинхронную параллель вычисление на локальной машине. Возможно ли это? Или это часть распределенной выпущенной версии TensorFlow. Если это так, то как?