Dropout es una técnica de regularización para reducir el sobreajuste en redes neuronales artificiales. Es una forma eficiente de realizar promedios de modelos con redes neuronales. El término dropout significa "abandonar", y en este contexto significa "apagar" de manera aleatoria las neuronas (tanto ocultas como visibles, como sucede en la naturaleza durante la poda neuronal en el cerebro de los primates) durante el proceso de entrenamiento de una red neuronal.[1]Tanto la reducción de los pesos como omitir unidades obtienen el mismo tipo de regularización.
Tipos y usos
La dilución normalmente se separa en dilución débil y dilución fuerte. La dilución débil describe el proceso en qué la cantidad de conexiones eliminadas es pequeña, y la dilución fuerte refiere a cuándo esta cantidad es grande. No hay una clara distinción sobre dónde está el límite entre la dilución débil y la fuerte. Aunque la distinción no tiene sentido, tiene implicaciones a la hora de elegir una solución para resolver el problema.
A veces la dilución se utiliza para añadir ruido. En aquel caso, la dilución débil añade una cantidad pequeña de ruido, mientras que la dilución fuerte añade una cantidad más grande.
Se suele referir a estas técnicas como un proceso de poda aleatoria de pesos. Se poda la red, y se mantiene si produce una mejora sobre el modelo anterior. Dilución y dropout ambas se refieren a un proceso iterativo. La poda de los pesos típicamente no implica que la red continúe aprendiendo, mientras que en dilución/dropout, la red continúa aprendiendo.
Red lineal generalizada
La salida de una capa de nodos lineales, en una red neuronal artificial puede ser descrita como
|
|
(1)
|
- – Salida del nodo
- – Peso real antes de que dilución, también llamado fuerza de conexión de Hebb
- – Entrada del nodo
En notación vectorial
|
|
(2)
|
- – Vector de salida
- – Matriz de pesos
- – Vector de entrada
Las ecuaciones anteriores son utilizadas en las secciones subsiguientes.
Dilución débil
Durante la dilución débil, la cantidad de conexiones eliminadas(neuronas) es pequeña, dando lugar a una pequeña incertidumbre. Esta incertidumbre puede ser solucionada aplicando lateoría de campo malo. En dilución débil el impacto en los pesos puede ser descrito como
|
|
(3)
|
- - peso diluido
- - peso real antes de la dilución
- - la probabilidad de , la probabilidad de mantener un peso
Se puede interpretar como la poda del peso en vez de la probabilidad de mantenerlo
En notación vectorial
|
|
(4)
|
Donde impone la dilución anterior.
Cuando el número de términos en la suma llega a infinito (los pesos de cada neurona), sigue siendo infinito (la fracción es fija), por lo que se puede aplicar la teoría de campo medio . En la notación de Hertz et al.[2] esto se escribiría como
|
|
(5)
|
- la temperatura media del campo
- - un factor de escala para la temperatura a partir de la probabilidad de mantener el peso
- - peso real antes de la dilución, también llamado fuerza de conexión Hebb
- - los estados de equilibrio estable medio
Algunas suposiciones no se nombran.[3][4]
Dilución fuerte
Cuando la dilución es fuerte, la cantidad de conexiones eliminadas es grande, lo que genera mucha más incertidumbre.
Dropout
Dropout es un caso especial de la ecuación anterior (3), donde la ecuación se ajusta para eliminar una fila completa en la matriz, y no solo ponderaciones al azar.
|
|
(6)
|
- - la probabilidad para mantener una fila en la matriz de peso
- - fila real en la matriz de peso antes de la eliminación
- - fila diluida en la matriz de peso
Debido a que la técnica de dropout elimina una fila completa de la matriz los supuestos anteriores para la dilución débil y el uso de la teoría del campo medio no son aplicables.
El proceso por el cual el nodo se lleva a cero, ya sea estableciendo los pesos en cero, "eliminando el nodo" o por algún otro medio, no afecta al resultado final. Si la red neuronal es procesada por un multiplicador de matrices digital de alto rendimiento, entonces es probable que sea más efectivo llevar el valor a cero más tarde en el gráfico del proceso. Si la red es procesada por un procesador restringido, tal vez incluso por un procesador analógico, entonces es probable que una solución más eficiente sea llevar el valor a cero al principio del proceso.
Patente de Google
Aunque ha habido ejemplos de eliminación aleatoria de conexiones entre neuronas en una red neuronal para mejorar los modelos,[5] esta técnica fue introducida por primera vez con el nombre de dropout por Geoffrey Hinton, et al. en 2012. Google tiene actualmente la patente de la técnica de dropout.[note 1]
Véase también
Notas
- ↑ La patente no es válida debido a trabajos anteriores. “Dropout” ha sido descrito como “dilución” en anteriores publicaciones. Es descrito por Hertz, Krogh, y Palmer en Introducción to the Theory of Neural Computation (1991) ISBN 0-201-51560-1, pp. 45, Weak Dilution. El teto referencia a Sompolinsky The Theory of Neural Networks: The Hebb Rules and Beyond enHeidelberg Colloquium on Glossy Dynamics (1987) y Canning y Gardner Partially Connected Models of Neural Networks enJournal of Physics (1988). Continúa describiendo la dilución fuerte. Esto es anterior al artículo de Hinton.
Referencias
- ↑ «Dropout: Una forma fácil de prever el sobreajuste en redes neuronales». Jmlr.org. Consultado el 26 de julio de 2015.
- ↑ Hertz, John; Krogh, Anders; Palmer, Richard (1991). Introducción a la teoria de la computación neuronal. Redwood City, California: Addison-Wesley Pub. Co. pp. 45-46. ISBN 0-201-51560-1.
- ↑ Sompolinsky, H. (1987), «Teoría de redes neuronales: La regla de Hebb», Coloquio de heidelberg en Glassy Dynamics, Lecture Notes in Physics (Berlin, Heidelberg: Springer Berlin Heidelberg) 275: 485-527, Bibcode:1987LNP...275..485S, ISBN 978-3-540-17777-7, doi:10.1007/bfb0057531 .
- ↑ Canning, A; Gardner, E (7 de agosto de 1988). «Partially connected models of neural networks». Journal of Physics A: Mathematical and General 21 (15): 3275-3284. Bibcode:1988JPhA...21.3275C. ISSN 0305-4470. doi:10.1088/0305-4470/21/15/016.
- ↑ Hertz, John; Krogh, Anders; Palmer, Richard (1991). Introduction to the Theory of Neural Computation. Redwood City, California: Addison-Wesley Pub. Co. pp. 45-46. ISBN 0-201-51560-1.