Недавно я встретил tf.nn.sparse_softmax_cross_entropy_with_logits, и я не могу понять, что разница сравнивается с tf.nn.softmax_cross_entropy_with_logits.
Единственное отличие в том, что обучающие векторы y должны однострочное кодирование при использовании sparse_softmax_cross_entropy_with_logits?
Чтение API Я не смог найти другую разницу по сравнению с softmax_cross_entropy_with_logits... но зачем нам нужна дополнительная функция?
Не следует ли softmax_cross_entropy_with_logits получать те же результаты, что и sparse_softmax_cross_entropy_with_logits, если он снабжен однокварными закодированными данными/векторами обучения?