Я запускаю DNNClassifier, для которого я контролирую точность во время обучения. monitors.ValidationMonitor от contrib/learn работает отлично, в моей реализации я его определяю:
validation_monitor = skflow.monitors.ValidationMonitor(input_fn=lambda: input_fn(A_test, Cl2_test), eval_steps=1, every_n_steps=50)
а затем используйте вызов из:
clf.fit(input_fn=lambda: input_fn(A, Cl2),
steps=1000, monitors=[validation_monitor])
где:
clf = tensorflow.contrib.learn.DNNClassifier(...
Это прекрасно работает. Тем не менее, проверки достоверности выглядят устаревшими и аналогичную функциональность заменяют на tf.train.SessionRunHook
.
Я новичок в TensorFlow, и мне не кажется тривиальным, как будет выглядеть такая замещающая реализация. Любое предложение высоко ценится. Опять же, мне нужно пройти проверку обучения после определенного количества шагов. Большое спасибо заранее.