¿Qué está apilado RNN??
RNN de apilamiento simplemente significa alimentar la salida de una capa RNN a otra capa RNN. Las capas RNN pueden emitir secuencias (es decir, salida en cada paso de tiempo) y estas pueden alimentarse, como cualquier secuencia de entrada, en la capa RNN posterior.
Por qué LSTM es mejor que RNN?
Las redes LSTM combaten los gradientes de fuga de RNN o el problema de dependencia a largo plazo. La fuga de gradiente se refiere a la pérdida de información en una red neuronal a medida que las conexiones se repiten durante un período más largo. En palabras simples, LSTM aborda el gradiente de desaparición ignorando datos/información inútil en la red.
¿Qué es el tamaño oculto en rnn pytorch??
Hidden_Size: el número de características en el estado oculto h. num_layers - número de capas recurrentes. mi.gramo., Establecer num_layers = 2 significaría apilar dos RNN para formar un RNN apilado, con el segundo RNN tomando salidas del primer RNN y calculando los resultados finales. Valor predeterminado: 1.