Я пытаюсь использовать глубокое обучение, чтобы предсказать доход от 15 самоотчетов от сайта знакомств.
Мы получаем довольно странные результаты, когда наши данные проверки получают лучшую точность и меньшие потери, чем наши данные обучения. И это соответствует разным размерам скрытых слоев. Это наша модель:
for hl1 in [250, 200, 150, 100, 75, 50, 25, 15, 10, 7]:
def baseline_model():
model = Sequential()
model.add(Dense(hl1, input_dim=299, kernel_initializer='normal', activation='relu', kernel_regularizer=regularizers.l1_l2(0.001)))
model.add(Dropout(0.5, seed=seed))
model.add(Dense(3, kernel_initializer='normal', activation='sigmoid'))
model.compile(loss='categorical_crossentropy', optimizer='adamax', metrics=['accuracy'])
return model
history_logs = LossHistory()
model = baseline_model()
history = model.fit(X, Y, validation_split=0.3, shuffle=False, epochs=50, batch_size=10, verbose=2, callbacks=[history_logs])
И это пример точности и потерь: и .
Мы попытались убрать регуляризацию и отсев, которые, как и ожидалось, закончились переоснащением (обучение: ~ 85%). Мы даже пытались резко снизить скорость обучения, с похожими результатами.
Кто-нибудь видел подобные результаты?