Когда я тренируюсь только с помощью glm, все работает, и я даже не приближаюсь к изнурительной памяти. Но когда я запускаю train(..., method='glm'), у меня заканчивается память.
Это потому, что train хранит много данных для каждой итерации перекрестной проверки (или что-то вроде процедуры trControl)? Я смотрю на trainControl, и я не могу найти, как предотвратить это... любые подсказки? Меня интересует только сводка производительности и, возможно, предсказанные ответы.
(Я знаю, что это не связано с хранением данных с каждой итерации поиска сетки параметров, потому что нет сетки для glm, я считаю.)