Я построил структуру CLDNN (свертка, LSTM, глубокая нейронная сеть) для задачи классификации необработанных сигналов.
Каждая тренировочная эпоха длится около 90 секунд, и гиперпараметры, кажется, очень трудно оптимизировать.
Я изучал различные способы оптимизации гиперпараметров (например, случайный или сетевой поиск) и узнал о байесовской оптимизации.
Хотя я все еще не полностью понимаю алгоритм оптимизации, я кормлю, как будто это мне очень поможет.
Я хотел бы задать несколько вопросов относительно задачи оптимизации.
- Как настроить байесовскую оптимизацию в отношении глубокой сети? (Какую функцию затрат мы пытаемся оптимизировать?)
- Какую функцию я пытаюсь оптимизировать? Это стоимость проверки, установленная после N эпох?
- Является ли мясная мята хорошей отправной точкой для этой задачи? Любые другие предложения для этой задачи?
Я бы очень признателен за понимание этой проблемы.