Таким образом, для больших сетей с большими наборами данных они занимают некоторое время для обучения. Было бы замечательно, если бы был способ поделиться вычислительным временем на нескольких машинах. Однако проблема заключается в том, что при тренировке нейронной сети весы постоянно меняются на каждой итерации, и каждая итерация более или менее основана на последнем, что делает идею распределенных вычислений по меньшей мере проблемой,
Я думал, что для каждой части сети сервер может отправить, может быть, 1000 наборов данных для обучения сети... но... у вас будет примерно одно и то же вычислительное время, t иметь возможность тренироваться на разных наборах данных одновременно (это то, что я хочу сделать).
Но даже если бы я мог разделить сетевое обучение на блоки разных наборов данных для обучения, как узнать, когда я закончил с этим набором данных? особенно если количество данных, отправленных на клиентскую машину, недостаточно для достижения желаемой ошибки?
Я приветствую все идеи.