Contenido del curso

- Fundamentos de Redes Neuronales Artificiales

Fundamentos de Redes Neuronales Artificiales

Odisea Algorítmica: De la Regresión al Aprendizaje Profundo
Lección 6: Construyendo la base de la inteligencia artificial moderna.

Bienvenido a uno de los pilares del deep learning. En esta lección exploraremos la inspiración biológica que dio origen a las redes neuronales artificiales, desglosaremos el funcionamiento de una neurona artificial (perceptrón), entenderemos las funciones de activación esenciales y construiremos paso a paso una red feedforward. Todo ello con un ejemplo práctico de predicción de churn en clientes usando un dataset sintético. Al finalizar, estarás preparado para abordar el mecanismo de aprendizaje mediante retropropagación en la siguiente lección.


1. Inspiración biológica: la neurona artificial

Las redes neuronales artificiales se inspiran en el cerebro humano, donde miles de millones de neuronas se interconectan para procesar información. Una neurona biológica recibe señales eléctricas a través de dendritas, las integra en el soma y, si el umbral se supera, transmite una señal por el axón. La neurona artificial (o perceptrón) modela este proceso:

  • Entradas (x₁, x₂, ..., xₙ) — análogas a las dendritas.
  • Pesos (w₁, w₂, ..., wₙ) — representan la fuerza de cada conexión.
  • Bias (b) — un término adicional que permite desplazar la activación.
  • Suma ponderada: z = (w₁x₁ + w₂x₂ + ... + wₙxₙ) + b.
  • Función de activación — introduce no linealidad y decide la salida final.

Este modelo simple pero poderoso es la base de todas las arquitecturas modernas.

2. El perceptrón y la función de activación

Un perceptrón toma una decisión binaria basada en la suma ponderada. Sin embargo, las funciones de activación suaves permiten aprendizaje por gradientes. Las tres más utilizadas son:

Función Fórmula Salida Uso típico
Sigmoide σ(z) = 1 / (1 + e−z) (0, 1) Clasificación binaria, capas de salida
ReLU f(z) = max(0, z) [0, ∞) Capas ocultas (evita saturación)
Tanh tanh(z) = (ez − e−z) / (ez + e−z) (−1, 1) Capas ocultas (centrado en cero)

Nota: La elección de la función de activación impacta drásticamente la capacidad de aprendizaje. ReLU es la más usada en la actualidad por su eficiencia computacional y mitigación del desvanecimiento del gradiente.

3. Construcción de una red feedforward simple

Una red feedforward (propagación hacia adelante) tiene capas de neuronas conectadas secuencialmente: entrada, una o más capas ocultas y salida. No hay ciclos ni retroalimentación. A continuación, la arquitectura básica:

  • Capa de entrada: tantas neuronas como características del dataset.
  • Capas ocultas: neuronas con funciones de activación no lineales (ReLU, Tanh).
  • Capa de salida: una neurona (regresión o clasificación binaria) con sigmoide o lineal.

La información fluye de izquierda a derecha: cada neurona calcula su salida y la transmite a la siguiente capa.

⚙️ Propagación hacia adelante y cálculo de error

Propagación hacia adelante (forward pass):

  1. Entrada X (vector de características).
  2. Para cada capa: z = W · aprev + b, luego a = activación(z).
  3. Salida final ŷ (predicción).

Cálculo de error: se compara ŷ con el valor real y mediante una función de pérdida (ej. Binary Cross-Entropy). El error es un escalar que mide qué tan lejos está la predicción.

Pesos y bias: inicialmente aleatorios, se ajustan durante el entrenamiento para minimizar el error.

4. Ejemplo práctico: predicción de churn en clientes (dataset sintético)

Supongamos que tenemos un conjunto de datos de 1000 clientes con las siguientes características: edad, ingresos mensuales, número de quejas, antigüedad (meses). Queremos predecir si abandonarán el servicio (churn =1) o no (0).

# Ejemplo de estructura del dataset sintético
# (solo ilustrativo, no es código ejecutable completo)
# Características: edad, ingresos_mensuales, num_quejas, antigüedad_meses
# Etiqueta: churn (0/1)
import numpy as np
np.random.seed(42)
n = 1000
edad = np.random.randint(18, 70, n)
ingresos = np.random.normal(3000, 1000, n)
quejas = np.random.poisson(1, n)
antiguedad = np.random.randint(1, 60, n)
X = np.column_stack([edad, ingresos, quejas, antiguedad])
# Churn sintético: probabilidad aumenta con quejas y disminuye con antigüedad
y = (quejas > 1.5) | (antiguedad < 6)  
y = y.astype(int)

Una red feedforward simple para este problema podría ser:

  • Entrada: 4 neuronas.
  • Capa oculta: 8 neuronas con activación ReLU.
  • Salida: 1 neurona sigmoide.

En la siguiente lección veremos cómo aprender los pesos y bias usando retropropagación. Por ahora, conceptualmente:

# Pseudocódigo de forward pass para una capa oculta y salida
W1, b1 # pesos y bias capa oculta
W2, b2 # pesos y bias capa salida

z1 = X @ W1 + b1
a1 = max(0, z1)   # ReLU
z2 = a1 @ W2 + b2
y_pred = 1 / (1 + np.exp(-z2))  # sigmoide
error = binary_cross_entropy(y, y_pred)

🔗 Conexión con la siguiente lección: El error calculado servirá como punto de partida para el mecanismo de retropropagación. Allí descubriremos cómo los gradientes fluyen hacia atrás para ajustar cada peso y bias, permitiendo que la red aprenda de forma efectiva. Dominar estos fundamentos te dará una base sólida para entender arquitecturas más complejas como CNN, RNN y transformers.


5. Resumen y conceptos clave

  • Neurona artificial: unidad básica que realiza suma ponderada + activación.
  • Perceptrón: modelo clásico de una neurona con activación escalón (o sigmoide).
  • Funciones de activación: sigmoide (para salidas binarias), ReLU (capas ocultas), Tanh (alternativa centrada).
  • Red feedforward: flujo de información sin ciclos, desde entrada hasta salida.
  • Forward pass: cálculo de predicciones.
  • Error: métrica que guía el aprendizaje (función de pérdida).
  • Pesos y bias: parámetros entrenables; se inicializan aleatoriamente y se optimizan.

Has dado el primer paso hacia la maestría en deep learning. La próxima lección revelará cómo las redes “aprenden” de verdad.

Odisea Algorítmica: De la Regresión al Aprendizaje Profundo — Fundamentos de Redes Neuronales Artificiales.

Introducción a la inspiración biológica: neuronas artificiales, perceptrón, función de activación (sigmoide, ReLU, Tanh). Construcción de una red feedforward simple. Propagación hacia adelante y cálculo de error. Concepto de pesos y bias. Ejemplo práctico: predicción de churn en clientes con un dataset sintético. Conexión con la siguiente lección: se explorará el mecanismo de aprendizaje mediante retropropagación.
Calificación
0 0

No hay comentarios por ahora.