Я знаю, что можно заморозить отдельные слои в сети, например, для обучения только последних слоев предварительно обученной модели. То, что я ищу, - это способ применить определенные уровни обучения к различным слоям.
Так, например, очень низкий уровень обучения 0,000001 для первого слоя, а затем постепенно увеличивается скорость обучения для каждого из следующих слоев. Так что последний слой затем заканчивается скоростью обучения 0,01 или около того.
Возможно ли это в pytorch? Любая идея, как я могу архивировать это?