El principio básico de una red neuronal es una colección de elementos básicos, es decir, una neurona artificial o perceptrón. Incluye varias entradas básicas como x1, x2….. xn, que crean una salida binaria si la suma es mayor que el potencial de activación.
A continuación se menciona una representación esquemática de una muestra de neuronas:
La salida generada puede verse como una suma ponderada con potencial de activación o compensación.
$$ Salida = sum_jw_jx_j + Bias $$
A continuación se describe una arquitectura de red neuronal típica:
Las capas entre la entrada y la salida se denominan capas ocultas, y la densidad y el tipo de conexiones entre las capas es la configuración. Por ejemplo, en una configuración totalmente acoplada, todas las neuronas de la capa L están conectadas a las neuronas de la capa L + 1. Para una localización más pronunciada, podemos conectar solo una vecindad local a la siguiente capa, digamos, nueve neuronas. En la Fig. 1-9 muestran dos capas ocultas estrechamente acopladas.
Los diferentes tipos de redes neuronales son los siguientes:
Las redes neuronales feedforward incluyen los elementos principales de la familia de redes neuronales. El movimiento de datos en este tipo de red neuronal ocurre desde la capa de entrada a la capa de salida a través de las capas ocultas existentes. La salida de una sola capa sirve como capa de entrada con restricciones para cualquier tipo de bucles en la arquitectura de la red.
Las redes neuronales recurrentes son cuando un patrón de datos cambia secuencialmente durante un período. En RNN, la misma capa se usa para recibir parámetros de entrada y mostrar parámetros de salida en una red neuronal especificada.
Las redes neuronales se pueden construir usando el paquete torch.nn.
Es una red de alimentación directa simple. Toma la entrada, la ejecuta a través de múltiples capas una por una y finalmente produce la salida.
Con PyTorch, podemos usar los siguientes pasos para una rutina típica de entrenamiento de redes neuronales:
rule: weight = weight -learning_rate * gradient
🚫