Как использовать пользовательское ядро SVM?

Я хотел бы реализовать свое собственное гауссовское ядро в Python, только для упражнений. Я использую: sklearn.svm.SVC(kernel=my_kernel) но я действительно не понимаю, что происходит.

Я ожидаю, что функция my_kernel будет вызываться с столбцами матрицы X качестве параметров, вместо этого я получил ее с помощью X, X качестве аргументов. Рассмотрение примеров неяснее.

Что мне не хватает?

Это мой код:

'''
Created on 15 Nov 2014

@author: Luigi
'''
import scipy.io
import numpy as np
from sklearn import svm
import matplotlib.pyplot as plt

def svm_class(fileName):

    data = scipy.io.loadmat(fileName)
    X = data['X']
    y = data['y']

    f = svm.SVC(kernel = 'rbf', gamma=50, C=1.0)
    f.fit(X,y.flatten())
    plotData(np.hstack((X,y)), X, f)

    return

def plotData(arr, X, f):

    ax = plt.subplot(111)

    ax.scatter(arr[arr[:,2]==0][:,0], arr[arr[:,2]==0][:,1], c='r', marker='o', label='Zero')
    ax.scatter(arr[arr[:,2]==1][:,0], arr[arr[:,2]==1][:,1], c='g', marker='+', label='One')

    h = .02  # step size in the mesh
    # create a mesh to plot in
    x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
                         np.arange(y_min, y_max, h))


    # Plot the decision boundary. For that, we will assign a color to each
    # point in the mesh [x_min, m_max]x[y_min, y_max].
    Z = f.predict(np.c_[xx.ravel(), yy.ravel()])

    # Put the result into a color plot
    Z = Z.reshape(xx.shape)
    plt.contour(xx, yy, Z)



    plt.xlim(np.min(arr[:,0]), np.max(arr[:,0]))
    plt.ylim(np.min(arr[:,1]), np.max(arr[:,1]))
    plt.show()
    return


def gaussian_kernel(x1,x2):
    sigma = 0.5
    return np.exp(-np.sum((x1-x2)**2)/(2*sigma**2))

if __name__ == '__main__':

    fileName = 'ex6data2.mat'
    svm_class(fileName)

Ответ 1

Прочитав ответ выше, а также некоторые другие вопросы и сайты (1, 2, 3, 4, 5), я поставил это вместе для гауссовского ядра в svm.SVC().

Вызовите svm.SVC() с kernel=precomputed svm.SVC().

Затем вычислите матрицу грамм aka Kernel Matrix (часто сокращенно K).

Затем используйте эту матрицу грамм в качестве первого аргумента (то есть X) для svm.SVC().fit():

Я начинаю со следующего кода:

C=0.1
model = svmTrain(X, y, C, "gaussian")

который вызывает sklearn.svm.SVC() в svmTrain(), а затем sklearn.svm.SVC().fit():

from sklearn import svm

if kernelFunction == "gaussian":
    clf = svm.SVC(C = C, kernel="precomputed")
    return clf.fit(gaussianKernelGramMatrix(X,X), y)

вычисление матрицы Грама - используется как параметр для sklearn.svm.SVC().fit() - выполняется в gaussianKernelGramMatrix():

import numpy as np

def gaussianKernelGramMatrix(X1, X2, K_function=gaussianKernel):
    """(Pre)calculates Gram Matrix K"""

    gram_matrix = np.zeros((X1.shape[0], X2.shape[0]))
    for i, x1 in enumerate(X1):
        for j, x2 in enumerate(X2):
            gram_matrix[i, j] = K_function(x1, x2)
    return gram_matrix

который использует gaussianKernel() для получения ядра радиальной базисной функции между x1 и x2 (мерой подобия, основанной на гауссовском распределении, центрированном на x1 с сигма = 0,1):

def gaussianKernel(x1, x2, sigma=0.1):

    # Ensure that x1 and x2 are column vectors
    x1 = x1.flatten()
    x2 = x2.flatten()

    sim = np.exp(- np.sum( np.power((x1 - x2),2) ) / float( 2*(sigma**2) ) )

    return sim

Затем, как только модель будет обучена этому настраиваемому ядру, мы прогнозируем "ядро [custom] между тестовыми данными и данными обучения":

predictions = model.predict( gaussianKernelGramMatrix(Xval, X) )

Короче говоря, для использования настраиваемого гауссового ядра SVM вы можете использовать этот фрагмент:

import numpy as np
from sklearn import svm

def gaussianKernelGramMatrixFull(X1, X2, sigma=0.1):
    """(Pre)calculates Gram Matrix K"""

    gram_matrix = np.zeros((X1.shape[0], X2.shape[0]))
    for i, x1 in enumerate(X1):
        for j, x2 in enumerate(X2):
            x1 = x1.flatten()
            x2 = x2.flatten()
            gram_matrix[i, j] = np.exp(- np.sum( np.power((x1 - x2),2) ) / float( 2*(sigma**2) ) )
    return gram_matrix

X=...
y=...
Xval=...

C=0.1
clf = svm.SVC(C = C, kernel="precomputed")
model = clf.fit( gaussianKernelGramMatrixFull(X,X), y )

p = model.predict( gaussianKernelGramMatrixFull(Xval, X) )

Ответ 2

По соображениям эффективности SVC предполагает, что ваше ядро является функцией, принимающей две матрицы выборок X и Y (она будет использовать два идентичных только во время обучения), и вы должны вернуть матрицу G где:

G_ij = K(X_i, Y_j)

и K - ваша функция ядра "точечного уровня".

Поэтому либо реализуйте гауссовское ядро, которое работает таким общим образом, либо добавляет функцию "прокси", например:

def proxy_kernel(X,Y,K):
    gram_matrix = np.zeros((X.shape[0], Y.shape[0]))
    for i, x in enumerate(X):
        for j, y in enumerate(Y):
            gram_matrix[i, j] = K(x, y)
    return gram_matrix

и используйте его так:

from functools import partial
correct_gaussian_kernel = partial(proxy_kernel, K=gaussian_kernel)