1950 – 1970
1.ª generación: IA simbólica y los sistemas pioneros
La primera generación de la IA se basaba en la manipulación de símbolos y reglas lógicas. Los investigadores creían que la inteligencia podía reducirse a operaciones formales sobre representaciones simbólicas del conocimiento.
Logic Theorist y GPS (1956-1959)
El Logic Theorist de Newell, Simon y Shaw fue seguido por el General Problem Solver (GPS), que intentaba resolver cualquier problema representable como un conjunto de estados y operadores. Ambos demostraron que las máquinas podían realizar razonamiento lógico.
ELIZA (1964-1966) y PLATO
ELIZA, creada por Joseph Weizenbaum en el MIT, simulaba conversaciones terapéuticas mediante pattern matching. El sistema PLATO (Universidad de Illinois, 1960) fue uno de los primeros entornos de aprendizaje asistido por ordenador, anticipando los sistemas tutoriales inteligentes.
El primer invierno de la IA (1974-1980): El informe Lighthill de 1973, encargado por el gobierno británico, concluyó que la IA había fallado en cumplir sus promesas. Los fondos de investigación se redujeron drásticamente en el Reino Unido y Estados Unidos.
1980 – 1990
2.ª generación: sistemas expertos y conocimiento codificado
Los sistemas expertos intentaban capturar el conocimiento de especialistas humanos en bases de reglas si-entonces. Programas como MYCIN (diagnóstico de infecciones bacterianas, Stanford, 1976) y DENDRAL (identificación de estructuras moleculares) demostraron que la IA podía tener aplicaciones prácticas.
Impacto educativo: En este período surgieron los primeros sistemas tutoriales inteligentes (ITS), como SCHOLAR (1970) y SOPHIE, que adaptaban la instrucción al nivel del estudiante.
El segundo invierno de la IA (1987-1993): Los sistemas expertos resultaron costosos de mantener y frágiles ante situaciones no previstas. El mercado de hardware especializado (máquinas Lisp) colapsó. La financiación volvió a caer.
1990 – 2010
3.ª generación: aprendizaje automático y enfoques estadísticos
El giro fundamental de esta generación fue dejar de programar reglas explícitamente y permitir que las máquinas aprendiesen patrones a partir de datos. Algoritmos como las máquinas de vectores de soporte (SVM), los árboles de decisión y los random forests se convirtieron en herramientas estándar.
Retropropagación (1986)
El artículo de Rumelhart, Hinton y Williams de 1986 popularizó el algoritmo de backpropagation, que permite entrenar redes neuronales multicapa ajustando los pesos de manera eficiente. Este avance sentó las bases del aprendizaje profundo que dominaría las décadas siguientes.
Deep Blue y Watson
Deep Blue (IBM) derrotó al campeón mundial de ajedrez Garry Kasparov en mayo de 1997. En 2011, Watson (IBM) venció a los campeones humanos en el concurso Jeopardy!, demostrando avances en procesamiento del lenguaje natural.
2012 – 2020
4.ª generación: aprendizaje profundo (deep learning)
En 2012, AlexNet (Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton) ganó el desafío ImageNet con un margen sin precedentes, popularizando las redes neuronales convolucionales (CNN) y el uso de GPU para el entrenamiento. Comenzó la revolución del deep learning.
Visión artificial
Las CNN alcanzaron precisión sobrehumana en reconocimiento de imágenes. Se aplicaron a diagnóstico médico, vehículos autónomos y vigilancia.
PLN y transformers
En 2017, Vaswani et al. publicaron "Attention Is All You Need", introduciendo la arquitectura transformer. Google lanzó BERT en 2018, revolucionando el procesamiento del lenguaje natural.
AlphaGo (2016)
AlphaGo (DeepMind) derrotó al campeón mundial de Go Lee Sedol en marzo de 2016, usando aprendizaje por refuerzo profundo en un juego considerado intratable por fuerza bruta.
2020 – Presente
5.ª generación: IA generativa y agentes autónomos
La quinta generación está marcada por modelos fundacionales de gran escala capaces de generar texto, imágenes, audio, código y vídeo. GPT-3 (junio 2020, 175.000 millones de parámetros) demostró capacidades emergentes sorprendentes. ChatGPT (noviembre 2022) alcanzó 100 millones de usuarios en aproximadamente dos meses, convirtiéndose en la aplicación de consumo con la adopción más rápida hasta ese momento.
Modelos multimodales
GPT-4 (marzo 2023) inauguró la era de los modelos multimodales capaces de procesar texto e imágenes. Otros modelos como Gemini (Google), Claude (Anthropic) y Llama (Meta) ampliaron el ecosistema.
IA agéntica
Los agentes de IA pueden ejecutar secuencias de tareas complejas, usar herramientas externas y tomar decisiones encadenadas de manera autónoma, abriendo nuevas posibilidades para la automatización y la asistencia educativa.