Интерпретация самоорганизующейся карты

Я читаю о самоорганизующихся картах, и я понимаю Алгоритм (я думаю), однако что-то еще ускользает от меня.

Как вы интерпретируете обученную сеть?

Как бы вы тогда на самом деле использовали его, например, для задачи классификации (как только вы сделали кластеризацию с данными обучения)?

Весь материал, который я, кажется, нахожу (печатный и цифровой), фокусируется на обучении Алгоритма. Я считаю, что мне может не хватать что-то важное.

Привет

Ответ 1

SOM являются главным образом алгоритмом сокращения размерности, а не инструментом классификации. Они используются для уменьшения размерности точно так же, как PCA и аналогичных методов (как только вы обучены, вы можете проверить, какой нейрон активирован вашим входом и использовать эту позицию нейрона как значение), единственное фактическое различие заключается в их способности сохранять заданной топологией выходного представления.

Итак, что действительно производит SOM - это отображение из вашего входного пространства X в сокращенное пространство Y (наиболее распространенная 2d-решетка, делая Y двумерное пространство). Чтобы выполнить фактическую классификацию, вы должны преобразовать свои данные с помощью этого сопоставления и запустить некоторую другую классификационную модель (SVM, нейронную сеть, дерево принятия решений и т.д.).

Другими словами - SOM используются для поиска других представлений данных. Представление, которое легко для дальнейшего анализа людьми (так как оно в основном двумерное и может быть построено), и очень легко для любых дальнейших классификационных моделей. Это отличный метод визуализации высокоразмерных данных, анализ "того, что происходит", как некоторые классы сгруппированы геометрически и т.д. Но их не следует путать с другими нейронными моделями, такими как искусственные нейронные сети или даже растущий нейронный газ (который является очень похожей концепцией, но при этом дает прямую кластеризацию данных), поскольку они служат другой цели.

Конечно, можно использовать SOM непосредственно для классификации, но это модификация исходной идеи, которая требует другого представления данных, и в целом она не работает так хорошо, как использование какого-либо другого классификатора поверх он.

ИЗМЕНИТЬ

Существует как минимум несколько способов визуализации обучаемого SOM:

  • можно отображать нейроны SOM в качестве точек во входном пространстве, причем ребра соединяют топологические близкие (это возможно только в том случае, если входное пространство имеет небольшое количество измерений, например 2-3)
  • отображать классы данных в топологии SOM - если ваши данные помечены некоторыми номерами {1,..k}, мы можем привязать к ним несколько цветов k, для двоичного случая рассмотрим blue и red. Затем для каждой точки данных мы вычисляем соответствующий нейрон в SOM и добавляем этот цвет метки к нейрону. После обработки всех данных мы рисуем SOM нейроны, каждый из которых имеет свое исходное положение в топологии, причем цвет является некоторым агрегированным (например, средним) цветов, назначенных ему. Этот подход, если мы используем некоторую простую топологию, такую ​​как 2d-сетка, дает нам хорошее низкоразмерное представление данных. На следующем изображении субсимволы от третьего до конца являются результатом такой визуализации, где red цвет означает метку 1 ("yes" answer) and синий means label 2` ( "нет" )
  • onc также может визуализировать межнейронные расстояния, вычисляя, насколько далеко расположены все связанные нейроны и строят их на карте SOM (второй субимость в приведенной выше визуализации).
  • можно кластеризовать позиции нейронов с помощью некоторого алгоритма кластеризации (например, K-средства) и визуализировать идентификаторы кластеров в виде цветов (первый субимаж).

source:wikipedia