Recurso adicional

Glosario de términos

Definiciones concisas de los conceptos técnicos más relevantes de esta clase

Agente de IA

AI agent

Sistema de IA capaz de percibir su entorno, tomar decisiones y ejecutar secuencias de acciones de forma autónoma para alcanzar un objetivo, usando herramientas externas cuando es necesario.

Álgebra booleana

Boolean algebra

Sistema algebraico desarrollado por George Boole (1854) que opera con valores verdadero/falso. Constituye la base matemática de los circuitos digitales y la lógica computacional.

Aprendizaje automático

Machine learning

Rama de la IA en la que los sistemas aprenden patrones a partir de datos sin ser programados explícitamente con reglas. Incluye aprendizaje supervisado, no supervisado y por refuerzo.

Aprendizaje profundo

Deep learning

Subconjunto del aprendizaje automático que utiliza redes neuronales con múltiples capas ocultas para aprender representaciones jerárquicas de los datos. Impulsor de los avances más recientes en visión artificial, PLN y generación de contenido.

Atención (mecanismo de)

Attention mechanism

Técnica que permite a un modelo ponderar la importancia relativa de cada parte de la entrada al generar la salida. Es el componente central de la arquitectura transformer (Vaswani et al., 2017).

Retropropagación

Backpropagation

Algoritmo para entrenar redes neuronales que calcula el gradiente del error y lo propaga hacia atrás, capa por capa, ajustando los pesos de la red. Popularizado por Rumelhart, Hinton y Williams (1986).

BERT

Bidirectional Encoder Representations from Transformers

Modelo de lenguaje de Google (2018) que introdujo la comprensión bidireccional del contexto. Utiliza preentrenamiento en grandes volúmenes de texto seguido de ajuste fino para tareas específicas.

GAN (red generativa antagónica)

Generative Adversarial Network

Arquitectura propuesta por Ian Goodfellow (2014) en la que dos redes neuronales (generador y discriminador) compiten entre sí: una genera datos sintéticos y la otra intenta distinguirlos de los reales.

GPT

Generative Pre-trained Transformer

Familia de modelos de lenguaje de OpenAI basados en la arquitectura transformer. GPT-3 (2020) tiene 175.000 millones de parámetros. GPT-4 (2023) introdujo capacidades multimodales.

IA generativa

Generative AI

Sistemas de inteligencia artificial capaces de generar contenido nuevo (texto, imágenes, audio, código, vídeo) a partir de patrones aprendidos durante el entrenamiento, en lugar de limitarse a clasificar o analizar datos existentes.

Invierno de la IA

AI winter

Períodos de reducción drástica de la financiación y el interés en la IA, causados por expectativas incumplidas. Se reconocen dos principales: 1974-1980 (tras el informe Lighthill) y 1987-1993 (tras el colapso de los sistemas expertos).

Modelo fundacional

Foundation model

Modelo de IA de gran escala preentrenado en datos masivos que sirve como base para múltiples tareas. Ejemplos: GPT-4, Gemini, Claude, Llama. Término acuñado por investigadores de Stanford (2021).

PLN (procesamiento del lenguaje natural)

Natural Language Processing (NLP)

Subcampo de la IA dedicado a que las máquinas comprendan, interpreten y generen lenguaje humano. Incluye tareas como traducción, resumen, análisis de sentimiento y generación de texto.

Red neuronal convolucional (CNN)

Convolutional Neural Network

Tipo de red neuronal diseñada para procesar datos con estructura de cuadrícula (como imágenes). Utiliza operaciones de convolución para detectar patrones jerárquicos. Desarrollada por Yann LeCun (LeNet, 1989).

RLHF

Reinforcement Learning from Human Feedback

Técnica de entrenamiento que ajusta un modelo de lenguaje utilizando valoraciones de evaluadores humanos. Es el método clave que hizo de ChatGPT un asistente conversacional útil y alineado con las preferencias humanas.

Sistema experto

Expert system

Programa que emula el conocimiento y el razonamiento de un especialista humano mediante bases de reglas si-entonces. Dominaron la segunda generación de la IA (1980s). Ejemplos: MYCIN, DENDRAL.

Test de Turing

Turing test / Imitation game

Propuesta de Alan Turing (1950): si un evaluador humano no puede distinguir las respuestas de una máquina de las de una persona, la máquina exhibe comportamiento inteligente. Referencia filosófica más que métrica práctica.

Transformer

Transformer

Arquitectura de red neuronal basada en mecanismos de atención, propuesta por Vaswani et al. (Google, 2017). Es la base de prácticamente todos los modelos de lenguaje actuales (GPT, BERT, Gemini, Claude, Llama).

XAI (IA explicable)

Explainable AI

Campo que busca hacer interpretables las decisiones de los modelos de IA, especialmente los de deep learning (considerados "cajas negras"). Relevante en contextos donde las decisiones afectan directamente a las personas, como la educación y la sanidad.