- Fundamentos de Redes Neuronales Artificiales
Fundamentos de Redes Neuronales Artificiales
Odisea Algorítmica: De la Regresión al Aprendizaje Profundo
Lección 6: Construyendo la base de la inteligencia artificial moderna.
Bienvenido a uno de los pilares del deep learning. En esta lección exploraremos la inspiración biológica que dio origen a las redes neuronales artificiales, desglosaremos el funcionamiento de una neurona artificial (perceptrón), entenderemos las funciones de activación esenciales y construiremos paso a paso una red feedforward. Todo ello con un ejemplo práctico de predicción de churn en clientes usando un dataset sintético. Al finalizar, estarás preparado para abordar el mecanismo de aprendizaje mediante retropropagación en la siguiente lección.
1. Inspiración biológica: la neurona artificial
Las redes neuronales artificiales se inspiran en el cerebro humano, donde miles de millones de neuronas se interconectan para procesar información. Una neurona biológica recibe señales eléctricas a través de dendritas, las integra en el soma y, si el umbral se supera, transmite una señal por el axón. La neurona artificial (o perceptrón) modela este proceso:
- Entradas (x₁, x₂, ..., xₙ) — análogas a las dendritas.
- Pesos (w₁, w₂, ..., wₙ) — representan la fuerza de cada conexión.
- Bias (b) — un término adicional que permite desplazar la activación.
- Suma ponderada: z = (w₁x₁ + w₂x₂ + ... + wₙxₙ) + b.
- Función de activación — introduce no linealidad y decide la salida final.
Este modelo simple pero poderoso es la base de todas las arquitecturas modernas.
2. El perceptrón y la función de activación
Un perceptrón toma una decisión binaria basada en la suma ponderada. Sin embargo, las funciones de activación suaves permiten aprendizaje por gradientes. Las tres más utilizadas son:
| Función | Fórmula | Salida | Uso típico |
|---|---|---|---|
| Sigmoide | σ(z) = 1 / (1 + e−z) | (0, 1) | Clasificación binaria, capas de salida |
| ReLU | f(z) = max(0, z) | [0, ∞) | Capas ocultas (evita saturación) |
| Tanh | tanh(z) = (ez − e−z) / (ez + e−z) | (−1, 1) | Capas ocultas (centrado en cero) |
Nota: La elección de la función de activación impacta drásticamente la capacidad de aprendizaje. ReLU es la más usada en la actualidad por su eficiencia computacional y mitigación del desvanecimiento del gradiente.
3. Construcción de una red feedforward simple
Una red feedforward (propagación hacia adelante) tiene capas de neuronas conectadas secuencialmente: entrada, una o más capas ocultas y salida. No hay ciclos ni retroalimentación. A continuación, la arquitectura básica:
- Capa de entrada: tantas neuronas como características del dataset.
- Capas ocultas: neuronas con funciones de activación no lineales (ReLU, Tanh).
- Capa de salida: una neurona (regresión o clasificación binaria) con sigmoide o lineal.
La información fluye de izquierda a derecha: cada neurona calcula su salida y la transmite a la siguiente capa.
Propagación hacia adelante (forward pass):
- Entrada X (vector de características).
- Para cada capa: z = W · aprev + b, luego a = activación(z).
- Salida final ŷ (predicción).
Cálculo de error: se compara ŷ con el valor real y mediante una función de pérdida (ej. Binary Cross-Entropy). El error es un escalar que mide qué tan lejos está la predicción.
Pesos y bias: inicialmente aleatorios, se ajustan durante el entrenamiento para minimizar el error.
4. Ejemplo práctico: predicción de churn en clientes (dataset sintético)
Supongamos que tenemos un conjunto de datos de 1000 clientes con las siguientes características: edad, ingresos mensuales, número de quejas, antigüedad (meses). Queremos predecir si abandonarán el servicio (churn =1) o no (0).
# Ejemplo de estructura del dataset sintético
# (solo ilustrativo, no es código ejecutable completo)
# Características: edad, ingresos_mensuales, num_quejas, antigüedad_meses
# Etiqueta: churn (0/1)
import numpy as np
np.random.seed(42)
n = 1000
edad = np.random.randint(18, 70, n)
ingresos = np.random.normal(3000, 1000, n)
quejas = np.random.poisson(1, n)
antiguedad = np.random.randint(1, 60, n)
X = np.column_stack([edad, ingresos, quejas, antiguedad])
# Churn sintético: probabilidad aumenta con quejas y disminuye con antigüedad
y = (quejas > 1.5) | (antiguedad < 6)
y = y.astype(int)
Una red feedforward simple para este problema podría ser:
- Entrada: 4 neuronas.
- Capa oculta: 8 neuronas con activación ReLU.
- Salida: 1 neurona sigmoide.
En la siguiente lección veremos cómo aprender los pesos y bias usando retropropagación. Por ahora, conceptualmente:
# Pseudocódigo de forward pass para una capa oculta y salida
W1, b1 # pesos y bias capa oculta
W2, b2 # pesos y bias capa salida
z1 = X @ W1 + b1
a1 = max(0, z1) # ReLU
z2 = a1 @ W2 + b2
y_pred = 1 / (1 + np.exp(-z2)) # sigmoide
error = binary_cross_entropy(y, y_pred)
🔗 Conexión con la siguiente lección: El error calculado servirá como punto de partida para el mecanismo de retropropagación. Allí descubriremos cómo los gradientes fluyen hacia atrás para ajustar cada peso y bias, permitiendo que la red aprenda de forma efectiva. Dominar estos fundamentos te dará una base sólida para entender arquitecturas más complejas como CNN, RNN y transformers.
5. Resumen y conceptos clave
- Neurona artificial: unidad básica que realiza suma ponderada + activación.
- Perceptrón: modelo clásico de una neurona con activación escalón (o sigmoide).
- Funciones de activación: sigmoide (para salidas binarias), ReLU (capas ocultas), Tanh (alternativa centrada).
- Red feedforward: flujo de información sin ciclos, desde entrada hasta salida.
- Forward pass: cálculo de predicciones.
- Error: métrica que guía el aprendizaje (función de pérdida).
- Pesos y bias: parámetros entrenables; se inicializan aleatoriamente y se optimizan.
Has dado el primer paso hacia la maestría en deep learning. La próxima lección revelará cómo las redes “aprenden” de verdad.
Odisea Algorítmica: De la Regresión al Aprendizaje Profundo — Fundamentos de Redes Neuronales Artificiales.
No hay comentarios por ahora.
Compartir este contenido
Compartir enlace
Compartir en redes sociales
Compartir por correo electrónico
Please iniciar sesión para compartir esto Artículo por correo electrónico.