Submission declined on 24 November 2024 by SafariScribe (talk). This is the English language Wikipedia; we can only accept articles written in the English language. Please provide a high-quality English language translation of your submission. Have you visited the Wikipedia home page? You can probably find a version of Wikipedia in your language.
Where to get help
How to improve a draft
You can also browse Wikipedia:Featured articles and Wikipedia:Good articles to find examples of Wikipedia's best writing on topics similar to your proposed article. Improving your odds of a speedy review To improve your odds of a faster review, tag your draft with relevant WikiProject tags using the button below. This will let reviewers know a new draft has been submitted in their area of interest. For instance, if you wrote about a female astronomer, you would want to add the Biography, Astronomy, and Women scientists tags. Editor resources
|
Definición
editLa función de activación SELU (Scaled Exponential Linear Units) es una función diseñada para inducir la auto normalización en redes neuronales. Es decir, a medida que las activaciones de este tipo se propagan a través de las capas de la red, comienzan a converger a una media cero y varianza uno.[1]
Fórmula
editLa función de activación SeLU se define como:
donde los valores de α y λ se obtienen al resolver ecuaciones de punto fijo.
Condiciones para utilizar la función SeLU
editLa función de activación SeLU debe tener:
- Valores negativos y positivos para controlar la media.
- Derivadas cercanas a cero para reducir la varianza si es demasiado grande en las capas inferiores.
- Una pendiente mayor que uno para aumentar la varianza si es demasiado pequeña en las capas inferiores.
- Una curva continua.[2]
Diferencias contra otras funciones de activación
editReLU
editLa función ReLU es una función de activación no linear fácil de implementar.
Por un lado, la función ReLU tiene un menor costo computacional y es más fácil de usar y entender. No obstante, la función SeLU no puede “morir” gracias a que el exponente añadido permite valores negativos.
ELU
editLa función ELU es una función de activación que tiene un comportamiento exponencial para entradas negativas.
A diferencia de la SELU, la función de activación ELU es más simple y tiene un menor costo computacional. Sin embargo, la actualización constante de valores negativos hace que la función SeLU sea más precisa ya que la red aprende más rápido. De igual manera, la función ELU carece del factor de escala λ.[3][4]
SeRLU
editA diferencia de la SeLU, que crece de manera monótona, la SERLU tiene una función en forma de montículo formulada como . La función con forma de montículo asegura que SERLU tenga una respuesta insignificante para entradas negativas grandes, mientras que la SELU tiene respuestas negativas constantes para estas entradas.[5]
Ventajas y Desventajas
editVentajas
edit- No es necesario utilizar la normalización de Batch, ni ningún otro tipo de normalización, ya que se asegura de que la varianza y la media se mantenga estable a lo largo de la red.
- Se puede utilizar en clasificación binaria y multiclase.
- Ayuda con problemas de gradientes.
Desventajas
edit- Funciona mejor con una combinación específica de inicialización de pesos, lograda mediante el método de inicialización normal de LeCun, por lo que otros métodos podrían no producir los resultados esperados.
- Al ser una función relativamente reciente y menos común que otras funciones de activación, su investigación resulta más compleja.[6]
References
edit- ^ Klambauer, Günter; Unterthiner, Thomas; Mayr, Andreas (September 7th, 2017). "Self-Normalizing Neural Networks". arXiv:1706.02515v5 [cs.LG].
{{cite arXiv}}
: Check date values in:|date=
(help) - ^ Huang, Zhen; Ng, Tim; Liu, Leo; Mason, Henry; Zhuang, Xiaodan; Liu, Daben (March 23th, 2020). "SNDCNN: SELF-NORMALIZING DEEP CNNs WITH SCALED EXPONENTIAL LINEAR UNITS FOR SPEECH RECOGNITION". arXiv:1910.01992 [cs.LG].
{{cite arXiv}}
: Check date values in:|date=
(help) - ^ Marchisio, Alberto; Hanif, Muhammad Abdullah; Rehman, Semeen; Martina, Maurizio; Shafique, Muhammad (October 27th, 2018). "A Methodology for Automatic Selection of Activation Functions to Design Hybrid Deep Neural Networks".
{{cite web}}
: Check date values in:|date=
(help) - ^ Nguyen, Anh; Pham, Khoa; Ngo, Dat; Ngo, Thanh; Pham, Lam (April 5th, 2021). "An Analysis of State-of-the-art Activation Functions For Supervised Deep Neural Network". arXiv:2104.02523 [cs.LG].
{{cite arXiv}}
: Check date values in:|date=
(help) - ^ Zhang, Guoqiang; Li, Haopeng (July 27th, 2018). "Effectiveness of Scaled Exponentially-Regularized Linear Units (SERLUs)". arXiv:1807.10117 [cs.LG].
{{cite arXiv}}
: Check date values in:|date=
(help) - ^ Upasani, Tanmay (2024-09-22). "SeLU: Why and why not?". Medium. Retrieved 2024-11-23.