Теперь я узнаю о LSM (Liquid State Machines), и я стараюсь понять, как они используются для обучения.
Я довольно смущен тем, что я прочитал через Интернет.
Я напишу, что я понял → Это может быть неверно, и я буду рад, если вы сможете исправить меня и объяснить, что верно:
-
LSM не обучены вообще: они просто инициализируются многими "временными нейронами" (например, Leaky Integrate и Fire нейроны), а их пороговые значения выбираются случайным образом, и поэтому связи между ними (т.е. не каждый нейрон должен иметь общий край с каждым из других нейронов).
-
Если вы хотите "узнать", что x единицы времени после ввода I, возникает событие Y, вам нужно "ждать" x единиц времени с помощью детекторов LIF и посмотреть, какие нейроны запускаются в этот конкретный момент. Затем вы можете обучить классификатор (например, FeedForward Network), что это конкретное подмножество активирующих нейронов означает, что произошло событие Y.
-
Вы можете использовать много "временных нейронов" в своей "жидкости", поэтому у вас может быть много разных подмножеств стреляющих нейронов, поэтому конкретный поднабор стреляющих нейронов становится почти уникальным на тот момент, когда вы ждали x, после ввода вашего ввода I
Я не знаю, истинно ли то, что я написал выше, или это полный мусор.
Скажите, пожалуйста, если это правильное использование и цели LIF.