Как можно использовать протекающие ReLU в новейшей версии keras? Функция relu() принимает необязательный параметр 'alpha', который отвечает за отрицательный наклон, но я не могу понять, как передать ths paramtere при построении слоя.
Эта строка, как я пытался это сделать,
model.add(Activation(relu(alpha=0.1))
но затем я получаю ошибку
TypeError: relu() missing 1 required positional argument: 'x'
Как я могу использовать утечку ReLU или любую другую функцию активации с некоторым параметром?