Можно ли использовать Rectified Linear Unit (ReLU) в качестве функции активации скрытого слоя вместо tanh()
или sigmoid()
в Theano? Реализация скрытого слоя выглядит следующим образом, и, насколько я искал в Интернете, ReLU не реализовано внутри Theano.
class HiddenLayer(object):
def __init__(self, rng, input, n_in, n_out, W=None, b=None, activation=T.tanh):
pass