Agente de IA
AI agent
Sistema de IA capaz de percibir su entorno, tomar decisiones y ejecutar secuencias de acciones de forma autónoma para alcanzar un objetivo, usando herramientas externas cuando es necesario.
Álgebra booleana
Boolean algebra
Sistema algebraico desarrollado por George Boole (1854) que opera con valores verdadero/falso. Constituye la base matemática de los circuitos digitales y la lógica computacional.
Aprendizaje automático
Machine learning
Rama de la IA en la que los sistemas aprenden patrones a partir de datos sin ser programados explícitamente con reglas. Incluye aprendizaje supervisado, no supervisado y por refuerzo.
Aprendizaje profundo
Deep learning
Subconjunto del aprendizaje automático que utiliza redes neuronales con múltiples capas ocultas para aprender representaciones jerárquicas de los datos. Impulsor de los avances más recientes en visión artificial, PLN y generación de contenido.
Atención (mecanismo de)
Attention mechanism
Técnica que permite a un modelo ponderar la importancia relativa de cada parte de la entrada al generar la salida. Es el componente central de la arquitectura transformer (Vaswani et al., 2017).
Retropropagación
Backpropagation
Algoritmo para entrenar redes neuronales que calcula el gradiente del error y lo propaga hacia atrás, capa por capa, ajustando los pesos de la red. Popularizado por Rumelhart, Hinton y Williams (1986).
BERT
Bidirectional Encoder Representations from Transformers
Modelo de lenguaje de Google (2018) que introdujo la comprensión bidireccional del contexto. Utiliza preentrenamiento en grandes volúmenes de texto seguido de ajuste fino para tareas específicas.
GAN (red generativa antagónica)
Generative Adversarial Network
Arquitectura propuesta por Ian Goodfellow (2014) en la que dos redes neuronales (generador y discriminador) compiten entre sí: una genera datos sintéticos y la otra intenta distinguirlos de los reales.
GPT
Generative Pre-trained Transformer
Familia de modelos de lenguaje de OpenAI basados en la arquitectura transformer. GPT-3 (2020) tiene 175.000 millones de parámetros. GPT-4 (2023) introdujo capacidades multimodales.
IA generativa
Generative AI
Sistemas de inteligencia artificial capaces de generar contenido nuevo (texto, imágenes, audio, código, vídeo) a partir de patrones aprendidos durante el entrenamiento, en lugar de limitarse a clasificar o analizar datos existentes.
Invierno de la IA
AI winter
Períodos de reducción drástica de la financiación y el interés en la IA, causados por expectativas incumplidas. Se reconocen dos principales: 1974-1980 (tras el informe Lighthill) y 1987-1993 (tras el colapso de los sistemas expertos).
Modelo fundacional
Foundation model
Modelo de IA de gran escala preentrenado en datos masivos que sirve como base para múltiples tareas. Ejemplos: GPT-4, Gemini, Claude, Llama. Término acuñado por investigadores de Stanford (2021).
PLN (procesamiento del lenguaje natural)
Natural Language Processing (NLP)
Subcampo de la IA dedicado a que las máquinas comprendan, interpreten y generen lenguaje humano. Incluye tareas como traducción, resumen, análisis de sentimiento y generación de texto.
Red neuronal convolucional (CNN)
Convolutional Neural Network
Tipo de red neuronal diseñada para procesar datos con estructura de cuadrícula (como imágenes). Utiliza operaciones de convolución para detectar patrones jerárquicos. Desarrollada por Yann LeCun (LeNet, 1989).
RLHF
Reinforcement Learning from Human Feedback
Técnica de entrenamiento que ajusta un modelo de lenguaje utilizando valoraciones de evaluadores humanos. Es el método clave que hizo de ChatGPT un asistente conversacional útil y alineado con las preferencias humanas.
Sistema experto
Expert system
Programa que emula el conocimiento y el razonamiento de un especialista humano mediante bases de reglas si-entonces. Dominaron la segunda generación de la IA (1980s). Ejemplos: MYCIN, DENDRAL.
Test de Turing
Turing test / Imitation game
Propuesta de Alan Turing (1950): si un evaluador humano no puede distinguir las respuestas de una máquina de las de una persona, la máquina exhibe comportamiento inteligente. Referencia filosófica más que métrica práctica.
Transformer
Transformer
Arquitectura de red neuronal basada en mecanismos de atención, propuesta por Vaswani et al. (Google, 2017). Es la base de prácticamente todos los modelos de lenguaje actuales (GPT, BERT, Gemini, Claude, Llama).
XAI (IA explicable)
Explainable AI
Campo que busca hacer interpretables las decisiones de los modelos de IA, especialmente los de deep learning (considerados "cajas negras"). Relevante en contextos donde las decisiones afectan directamente a las personas, como la educación y la sanidad.