Rehacer

Aprendizaje profundo usando unidades lineales rectificadas (RELU)
¿Qué hace Relu en el aprendizaje profundo??¿Por qué la unidad lineal Relu rectificada es la función de activación más popular??¿Podemos usar Relu en ...
Quien inventó relu
La función de activación de la unidad lineal rectificada (RELU) fue propuesta por Nair y Hinton 2010, y desde entonces, ha sido la función de activaci...