Как я могу реализовать инкрементное обучение для xgboost?

Проблема заключается в том, что данные моего поезда не могут быть помещены в ОЗУ из-за размера данных поезда. Так что мне нужен метод, который сначала строит одно дерево на весь набор данных поезда, вычисляет остатки, строит другое дерево и т.д. (Например, градиентное усиление дерева). Очевидно, если я вызову model = xgb.train(param, batch_dtrain, 2) в некотором цикле - это не поможет, потому что в этом случае он просто перестраивает всю модель для каждой партии.

Ответ 1

Отказ от ответственности: я новичок в xgboost, но я думаю, что понял это.

Попробуйте сохранить свою модель после тренировки в первой партии. Затем, при последовательных запусках, предоставляйте метод xgb.train путь к файлу сохраненной модели.

Вот небольшой эксперимент, который я убедил, что он работает:

Сначала разделите набор данных boston на обучающие и тестовые наборы. Затем разделите тренировочный набор на половинки. Установите модель с первой половиной и получите оценку, которая будет служить эталоном. Затем установите две модели со второй половиной; одна модель будет иметь дополнительный параметр xgb_model. Если бы прохождение дополнительного параметра не имело никакого значения, тогда мы ожидали бы, что их оценки будут похожими. Но, к счастью, новая модель работает намного лучше, чем первая.

import xgboost as xgb
from sklearn.cross_validation import train_test_split as ttsplit
from sklearn.datasets import load_boston
from sklearn.metrics import mean_squared_error as mse

X = load_boston()['data']
y = load_boston()['target']

# split data into training and testing sets
# then split training set in half
X_train, X_test, y_train, y_test = ttsplit(X, y, test_size=0.1, random_state=0)
X_train_1, X_train_2, y_train_1, y_train_2 = ttsplit(X_train, 
                                                     y_train, 
                                                     test_size=0.5,
                                                     random_state=0)

xg_train_1 = xgb.DMatrix(X_train_1, label=y_train_1)
xg_train_2 = xgb.DMatrix(X_train_2, label=y_train_2)
xg_test = xgb.DMatrix(X_test, label=y_test)

params = {'objective': 'reg:linear', 'verbose': False}
model_1 = xgb.train(params, xg_train_1, 30)
model_1.save_model('model_1.model')

# ================= train two versions of the model =====================#
model_2_v1 = xgb.train(params, xg_train_2, 30)
model_2_v2 = xgb.train(params, xg_train_2, 30, xgb_model='model_1.model')

print(mse(model_1.predict(xg_test), y_test))     # benchmark
print(mse(model_2_v1.predict(xg_test), y_test))  # "before"
print(mse(model_2_v2.predict(xg_test), y_test))  # "after"

# 23.0475232194
# 39.6776876084
# 27.2053239482

Сообщите мне, если что-то неясно!

ссылка: https://github.com/dmlc/xgboost/blob/master/python-package/xgboost/training.py

Ответ 2

Теперь (версия 0.6?) есть параметр process_update, который может помочь. Здесь эксперимент с ним:

import pandas as pd
import xgboost as xgb
from sklearn.model_selection import ShuffleSplit
from sklearn.datasets import load_boston
from sklearn.metrics import mean_squared_error as mse

boston = load_boston()
features = boston.feature_names
X = boston.data
y = boston.target

X=pd.DataFrame(X,columns=features)
y = pd.Series(y,index=X.index)

# split data into training and testing sets
rs = ShuffleSplit(test_size=0.3, n_splits=1, random_state=0)
for train_idx,test_idx in rs.split(X):  # this looks silly
    pass

train_split = round(len(train_idx) / 2)
train1_idx = train_idx[:train_split]
train2_idx = train_idx[train_split:]
X_train = X.loc[train_idx]
X_train_1 = X.loc[train1_idx]
X_train_2 = X.loc[train2_idx]
X_test = X.loc[test_idx]
y_train = y.loc[train_idx]
y_train_1 = y.loc[train1_idx]
y_train_2 = y.loc[train2_idx]
y_test = y.loc[test_idx]

xg_train_0 = xgb.DMatrix(X_train, label=y_train)
xg_train_1 = xgb.DMatrix(X_train_1, label=y_train_1)
xg_train_2 = xgb.DMatrix(X_train_2, label=y_train_2)
xg_test = xgb.DMatrix(X_test, label=y_test)

params = {'objective': 'reg:linear', 'verbose': False}
model_0 = xgb.train(params, xg_train_0, 30)
model_1 = xgb.train(params, xg_train_1, 30)
model_1.save_model('model_1.model')
model_2_v1 = xgb.train(params, xg_train_2, 30)
model_2_v2 = xgb.train(params, xg_train_2, 30, xgb_model=model_1)

params.update({'process_type': 'update',
               'updater'     : 'refresh',
               'refresh_leaf': True})
model_2_v2_update = xgb.train(params, xg_train_2, 30, xgb_model=model_1)

print('full train\t',mse(model_0.predict(xg_test), y_test)) # benchmark
print('model 1 \t',mse(model_1.predict(xg_test), y_test))  
print('model 2 \t',mse(model_2_v1.predict(xg_test), y_test))  # "before"
print('model 1+2\t',mse(model_2_v2.predict(xg_test), y_test))  # "after"
print('model 1+update2\t',mse(model_2_v2_update.predict(xg_test), y_test))  # "after"

Вывод:

full train   17.8364309709
model 1      24.2542132108
model 2      25.6967017352
model 1+2    22.8846455135
model 1+update2  14.2816257268

Ответ 3

Я создал сущность jupyter notebook, чтобы продемонстрировать, что модель xgboost может обучаться постепенно. Я использовал boston dataset для обучения модели. Я сделал 3 эксперимента - однократное обучение, итеративное однократное обучение, итеративное инкрементное обучение. При инкрементальном обучении я передавал данные бостона в модель партиями размером 50.

Суть сущности заключается в том, что вам придется перебирать данные несколько раз, чтобы модель сходилась к точности, полученной при изучении с одним выстрелом (все данные).

Вот соответствующий код для итеративного инкрементного обучения с помощью xgboost.

batch_size = 50
iterations = 25
model = None
for i in range(iterations):
    for start in range(0, len(x_tr), batch_size):
        model = xgb.train({
            'learning_rate': 0.007,
            'update':'refresh',
            'process_type': 'update',
            'refresh_leaf': True,
            #'reg_lambda': 3,  # L2
            'reg_alpha': 3,  # L1
            'silent': False,
        }, dtrain=xgb.DMatrix(x_tr[start:start+batch_size], y_tr[start:start+batch_size]), xgb_model=model)

        y_pr = model.predict(xgb.DMatrix(x_te))
        #print('    MSE [email protected]{}: {}'.format(int(start/batch_size), sklearn.metrics.mean_squared_error(y_te, y_pr)))
    print('MSE [email protected]{}: {}'.format(i, sklearn.metrics.mean_squared_error(y_te, y_pr)))

y_pr = model.predict(xgb.DMatrix(x_te))
print('MSE at the end: {}'.format(sklearn.metrics.mean_squared_error(y_te, y_pr)))

XGBoost версия: 0.6

Ответ 4

Если ваша проблема связана с размером набора данных и вам на самом деле не нужно инкрементальное обучение (например, вы не имеете дело с потоковым приложением), то вам следует проверить Spark или Flink.

Эти две платформы могут тренироваться на очень больших наборах данных с небольшой оперативной памятью, используя дисковую память. Обе платформы имеют дело с проблемами памяти внутри. В то время как Flink решил это первым, Spark попал в последние выпуски.

Взгляни на:

Ответ 5

Похоже, вам не нужно ничего, кроме как снова вызвать ваш xgb.train(....) но предоставить результат модели из предыдущего пакета:

# python
params = {} # your params here
ith_batch = 0
n_batches = 100
model = None
while ith_batch < n_batches:
    d_train = getBatchData(ith_batch)
    model = xgb.train(params, d_train, xgb_model=model)
    ith_batch += 1

это основано на https://xgboost.readthedocs.io/en/latest/python/python_api.html enter image description here

Ответ 6

Для кода paulperry, если изменить одну строку с "train_split = round (len (train_idx)/2)" на "train_split = len (train_idx) - 50". модель 1 + update2 будет изменена с 14.2816257268 на 45.60806270012028. И много "leaf = 0" приводит к файлу дампа.

Обновленная модель не подходит, когда набор образцов обновлений относительно мал. Для двоичного кода: логистика обновленная модель неприменима, если в наборе образцов обновления только один класс.