Contenido del curso

- El Resurgir: Sistemas Expertos y el Segundo Boom

El Resurgir: Sistemas Expertos y el Segundo Boom

La década de 1980 marcó un renacimiento crucial para la Inteligencia Artificial, alejándose de la promesa teórica para convertirse en una herramienta con aplicaciones comerciales tangibles. Este "Segundo Boom" se caracterizó por el dominio de los Sistemas Expertos y un resurgimiento paralelo de las ideas conexionistas, sentando las bases tecnológicas y comerciales, pero también revelando las limitaciones que conducirían a un nuevo invierno.

Contexto Histórico: De la Crisis al Boom Comercial

Tras el "Invierno de la IA" de los años 70, impulsado por el informe Lighthill y la reducción de fondos, la década de los 80 vio un resurgimiento basado en un nuevo paradigma: la IA estrecha o aplicada. En lugar de buscar una inteligencia general, la comunidad se centró en construir sistemas que emularan el conocimiento de un experto humano en dominios muy específicos. Esto demostró valor comercial y reactivó la inversión, tanto privada como gubernamental.

1. El Éxito Comercial de los Sistemas Expertos

Los Sistemas Expertos (SE) fueron programas informáticos que utilizaban bases de conocimiento y reglas de inferencia para resolver problemas dentro de un área especializada, imitando el razonamiento de un experto humano.

1970s

MYCIN

Sistema pionero para diagnóstico y recomendación de tratamientos para infecciones bacterianas. Demostró la viabilidad del razonamiento basado en reglas bajo incertidumbre.

1970s

DENDRAL

Uno de los primeros SE exitosos. Infería la estructura molecular de compuestos orgánicos a partir de datos espectrométricos de masas. Mostró que la IA podía superar a humanos en tareas altamente especializadas.

1980s

XCON (R1)

El éxito comercial por excelencia. Desarrollado por Digital Equipment Corporation (DEC) para configurar sistemas de ordenadores VAX. Ahorró millones anuales, validando el ROI de la IA en la industria.

2. Arquitectura de un Sistema Experto

La potencia de un SE radicaba en su arquitectura modular, que separaba claramente el conocimiento del mecanismo para procesarlo.

Base de Conocimientos

El corazón del sistema. Contenía hechos sobre el dominio y reglas (usualmente del tipo SI-ENTONCES) que representaban el conocimiento del experto. Ej: "SI el organismo es gram-positivo Y tiene forma de coco ENTONCES es probable que sea Estafilococo".

Motor de Inferencia

El "cerebro" que aplica las reglas a los hechos para derivar nuevas conclusiones. Utilizaba estrategias como el encadenamiento hacia adelante (de datos a conclusiones) o el encadenamiento hacia atrás (de una hipótesis a los datos que la prueban).

Interfaz de Usuario

Permitía la comunicación entre el sistema y los usuarios no expertos. Incluía un mecanismo para explicar su razonamiento (ej: "¿Por qué me pregunta eso?"), lo que aumentaba la confianza en sus diagnósticos.

3. El Proyecto de la Quinta Generación (Japón)

En 1982, Japón lanzó un ambicioso proyecto estatal de 10 años que conmocionó a Occidente. Su objetivo era saltar las arquitecturas de computación basadas en Von Neumann y crear ordenadores "de quinta generación" específicamente diseñados para la ejecución de Prolog (lógica) y el desarrollo masivo de Sistemas Expertos.

Impacto Global

Este proyecto fue un catalizador masivo. Estados Unidos y Europa respondieron con sus propios programas de investigación (como el Strategic Computing Initiative en EE.UU. y el programa ESPRIT en Europa), inyectando miles de millones de dólares en investigación en IA y revitalizando el campo a nivel mundial.

4. El Resurgimiento del Conexionismo

En paralelo al auge simbólico de los SE, la década de los 80 también vio el renacer de la IA conexionista (redes neuronales), que había estado en un segundo plano desde los años 60.

Hito Año Significado
Algoritmo de Retropropagación Re-descubierto ~1986 Proporcionó un método eficiente para entrenar redes neuronales multicapa, resolviendo el problema de ajustar los pesos de las capas ocultas. Fue el avance práctico clave.
Libro "Parallel Distributed Processing" 1986 Editado por Rumelhart y McClelland, este libro en dos volúmenes reunió y popularizó el marco teórico de las redes neuronales, presentándolas como modelos de procesamiento de información inspirados en el cerebro.

Este renacimiento conexionista ofrecía una alternativa al paradigma simbólico/rígido de los SE, prometiendo sistemas capaces de aprender a partir de datos y manejar la ambigüedad.

5. Limitaciones y la Semilla de una Nueva Crisis

El Segundo Boom, aunque productivo, contenía las semillas de su propio declive. A finales de los 80, el entusiasmo comenzó a chocar con la realidad de las limitaciones técnicas y prácticas.

Problemas Fundamentales:

  • Mantenimiento Costoso y Frágil: Las bases de conocimiento, con miles de reglas, se volvían increíblemente complejas de actualizar y mantener. Un pequeño cambio podía tener efectos inesperados en cascada.
  • Falta de Sentido Común: Los SE eran expertos idiotas. Podían diagnosticar una enfermedad rara, pero no entendían conceptos básicos del mundo. No podían razonar fuera de su dominio estrecho ni manejar información incompleta o contradictoria de forma robusta.
  • Cuello de Botella del Conocimiento: Extraer el conocimiento de los expertos humanos ("ingeniería del conocimiento") era un proceso lento, costoso y subjetivo.
  • Límites de la Escalabilidad: Los sistemas no escalaban bien a problemas más grandes o a dominios menos definidos. El costo/beneficio empezaba a cuestionarse para aplicaciones más allá de nichos muy rentables.
  • Competencia del Hardware Convencional: Los ordenadores tradicionales aumentaban su potencia, y soluciones software convencionales más simples a veces alcanzaban resultados similares con menos complejidad.

Conclusión: Un Boom Fundacional

El Segundo Boom de la IA en los años 80 fue fundamental. Transformó la IA de una disciplina académica en una tecnología empresarial. Popularizó la arquitectura de los Sistemas Expertos, reactivó la investigación en redes neuronales y generó una enorme inversión. Sin embargo, al exponer de forma cruda las limitaciones del enfoque simbólico puro (fragilidad, falta de aprendizaje, ausencia de sentido común), preparó el terreno tanto para el próximo "Invierno de la IA" a principios de los 90, como para el eventual auge del aprendizaje automático basado en datos que definiría el siglo XXI. Fue un paso necesario, y doloroso, en la evolución de la inteligencia artificial.

Examen del renacimiento de la IA en los años 80. Se tratará: 1) El éxito comercial de los Sistemas Expertos (ej. MYCIN, DENDRAL, XCON). 2) La arquitectura básica de un sistema experto: base de conocimientos, motor de inferencia, interfaz. 3) El papel de Japón y su proyecto de la Quinta Generación. 4) El resurgimiento del conexionismo: el libro de Rumelhart y McClelland sobre PDP y el algoritmo de retropropagación. 5) Las limitaciones que prepararon el terreno para una nueva crisis (mantenimiento costoso, falta de sentido común).

No se permite comentar en este curso.