Сохранить модель MinMaxScaler в sklearn

Я использую модель MinMaxScaler в sklearn, чтобы нормализовать возможности модели.

training_set = np.random.rand(4,4)*10
training_set

       [[ 6.01144787,  0.59753007,  2.0014852 ,  3.45433657],
       [ 6.03041646,  5.15589559,  6.64992437,  2.63440202],
       [ 2.27733136,  9.29927394,  0.03718093,  7.7679183 ],
       [ 9.86934288,  7.59003904,  6.02363739,  2.78294206]]


scaler = MinMaxScaler()
scaler.fit(training_set)    
scaler.transform(training_set)


   [[ 0.49184811,  0.        ,  0.29704831,  0.15972182],
   [ 0.4943466 ,  0.52384506,  1.        ,  0.        ],
   [ 0.        ,  1.        ,  0.        ,  1.        ],
   [ 1.        ,  0.80357559,  0.9052909 ,  0.02893534]]

Теперь я хочу использовать тот же скейлер для нормализации тестового набора:

   [[ 8.31263467,  7.99782295,  0.02031658,  9.43249727],
   [ 1.03761228,  9.53173021,  5.99539478,  4.81456067],
   [ 0.19715961,  5.97702519,  0.53347403,  5.58747666],
   [ 9.67505429,  2.76225253,  7.39944931,  8.46746594]]

Но я не хочу, чтобы все время использовать scaler.fit() с данными тренировок. Есть ли способ сохранить скейлер и загрузить его позже из другого файла?

Ответ 1

Так что я на самом деле не эксперт в этом, но из небольшого исследования и нескольких полезных ссылок, я думаю, что pickle и sklearn.externals.joblib станут вашими друзьями здесь.

pickle позволяет вам сохранять модели или "сбрасывать" модели в файл.

Я думаю, что эта ссылка также полезна. Это говорит о создании модели постоянства. То, что вы захотите попробовать это:

# could use: import pickle... however let do something else
from sklearn.externals import joblib 

# this is more efficient than pickle for things like large numpy arrays
# ... which sklearn models often have.   

# then just 'dump' your file
joblib.dump(clf, 'my_dope_model.pkl') 

Здесь вы можете узнать больше о внешнем виде склеарна.

Дайте мне знать, если это не поможет, или я чего-то не понимаю в вашей модели.

Ответ 2

Даже лучше, чем pickle (который создает гораздо большие файлы, чем этот метод), вы можете использовать встроенный инструмент sklearn:

from sklearn.externals import joblib
scaler_filename = "scaler.save"
joblib.dump(scaler, scaler_filename) 

# And now to load...

scaler = joblib.load(scaler_filename) 

Ответ 3

Вы можете использовать pickle для сохранения масштабирования:

import pickle
scalerfile = 'scaler.sav'
pickle.dump(scaler, open(scalerfile, 'wb'))

Загрузите его обратно:

import pickle
scalerfile = 'scaler.sav'
scaler = pickle.load(open(scalerfile, 'rb'))
test_scaled_set = scaler.transform(test_set)

Ответ 4

Просто обратите внимание, что sklearn.externals.joblib устарел и заменен старой joblib, которую можно установить с помощью pip install joblib:

import joblib
joblib.dump(my_scaler, 'scaler.pkl')
my_scaler = joblib.load('scaler.pkl')

Документы для joblib.dump() и joblib.load().

Ответ 5

Лучший способ сделать это - создать конвейер ML следующим образом:

from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import MinMaxScaler
from sklearn.externals import joblib


pipeline = make_pipeline(MinMaxScaler(),YOUR_ML_MODEL() )

model = pipeline.fit(X_train, y_train)

Теперь вы можете сохранить его в файл:

joblib.dump(model, 'filename.mod') 

Позже вы можете загрузить его так:

model = joblib.load('filename.mod')