La regularización es una técnica que ayuda a evitar el sobreajuste al penalizar un modelo para tener grandes pesos. Esencialmente, un modelo tiene grandes pesos cuando no se ajusta adecuadamente a los datos de entrada.
- ¿Cuál es el propósito de la regularización??
- ¿Qué es el proceso de regularización??
- ¿Qué es la regularización y sus tipos??
- ¿Qué funciona con regularización L1 y L2??
¿Cuál es el propósito de la regularización??
La regularización se refiere a técnicas que se utilizan para calibrar modelos de aprendizaje automático para minimizar la función de pérdida ajustada y evitar el sobreajuste o el poco acorralado. Usando la regularización, podemos ajustar nuestro modelo de aprendizaje automático adecuadamente en un conjunto de pruebas determinadas y, por lo tanto, reducir los errores en él.
¿Qué es el proceso de regularización??
En matemáticas, estadísticas, finanzas, informática, particularmente en el aprendizaje automático y los problemas inversos, la regularización es un proceso que cambia la respuesta del resultado para ser "más simple". A menudo se usa para obtener resultados de problemas mal plenados o para evitar el sobreajuste.
¿Qué es la regularización y sus tipos??
La regularización consta de diferentes técnicas y métodos utilizados para abordar el problema de la ajuste excesiva reduciendo el error de generalización sin afectar mucho el error de entrenamiento. Elegir modelos demasiado complejos para los puntos de datos de entrenamiento a menudo puede conducir a un sobreajuste.
¿Qué funciona con regularización L1 y L2??
La regularización L1, también llamada regresión de lazo, agrega el "valor absoluto de la magnitud" del coeficiente como término de penalización a la función de pérdida. La regularización de L2, también llamada regresión de una cresta, agrega la "magnitud al cuadrado" del coeficiente como el término de penalización a la función de pérdida.