- ¿Por qué son invariables de traducción de redes neuronales convolucionales??
- ¿Es la traducción de CNN invariante o equivalente??
- Son los CNN invariables a la rotación y escala de traducción?
- ¿Por qué CNN no es invariante a la rotación??
¿Por qué son invariables de traducción de redes neuronales convolucionales??
Se cree comúnmente que las redes neuronales convolucionales (CNN) son arquitectónicamente invariables a la traducción gracias a las operaciones de convolución y/o agrupación que están dotadas. De hecho, varios estudios han encontrado que estas redes no reconocen sistemáticamente nuevos objetos en ubicaciones no capacitadas.
¿Es la traducción de CNN invariante o equivalente??
Las activaciones de una capa convolucional en un CNN no son invariables bajo las traducciones: se mueven a medida que la imagen se mueve (i.mi., son equivalentes, en lugar de invarianct, a las traducciones). Esas activaciones generalmente se alimentan en una capa de agrupación, que tampoco es invariante a las traducciones.
Son los CNN invariables a la rotación y escala de traducción?
Las redes neuronales convolucionales profundas (CNN) son empíricamente conocidas por ser invariables a la traducción moderada pero no a la rotación en la clasificación de imágenes. Este documento propone un modelo CNN profundo, llamado Cycnn, que explota el mapeo polar de las imágenes de entrada para convertir la rotación a la traducción.
¿Por qué CNN no es invariante a la rotación??
Una vez más, estos filtros en sí mismos no son invariantes de rotación: es solo que el CNN ha aprendido cómo se ve un "9" bajo pequeñas rotaciones que existen en el conjunto de entrenamiento. A menos que sus datos de entrenamiento incluyan dígitos que se giran en el espectro completo de 360 grados, su CNN no es realmente invariante de rotación.