ChatGPT, prompts, tokens, alucinaciones… las 7 palabras clave que tienes que saber de la IA

Al comenzar a usar ChatGPT, Gemini o cualquier herramienta de IA, que tan al orden del día encontramos, muchas veces encontramos términos que parecen sacados de una película de Blade Runner: «alucinaciones, tokens, prompts, ajuste fino…». Conceptos fundamentales para entender si queremos movernos por el mundo de la IA de cara al futuro.

Pero estas mismas palabras no tienen un origen esotéricos, ni están destinadas a ingenieros de desarrollo de software. En realidad, son palabras simples que describen parámetros muy concretos del universo de la inteligencia artificial. Por ello, conocer estos términos es lo equivalente a alfabetizarnos en el mundo de ChatGPT y compañía y comenzar a elegir chatbots que realmente nos convengan.

Porque si sabes qué es una alucinación de l IA, puedes aprender rápido a identificarlas. Pasa lo mismo con los tokens y los famosos prompts. De hecho, el prompt debería ser lo mínimo que debe conocer cualquier usuario que quiere relacionarse con chatbots inteligentes. Por lo que hemos creado un «diccionario» explicando 8 términos clave, explicados para todos los públicos, para que nadie se quede atrás.

¿Cuáles son los términos más importantes que tenemos que saber de la IA?

Como cualquier otro tipo de software, la IA posee un funcionamiento y mecánicas propias, con el consiguiente vocabulario, que cada usuario puede considerar más o menos técnico. Pero de entre todas las palabras con que te vas a cruzar, vamos a explicar las más importantes:

Prompt

Es nuestra pregunta u orden a la IA. Así de simple. La calidad del prompt definirá la calidad de la respuesta. No es lo mismo un prompt simple (¿me ayudas con datos de la 2GM?) a un prompt más específico («Necesito que me digas qué día comenzó la Segunda Guerra Mundial»). Cuanto mayor es la precisión de la instrucción, mayor es la precisión que encontramos en la respuesta.

Creación de Journey compleja sobre arte oriental
Resultados de creación de Journey a prompt complejo para generar un dibujo. Foto: captura de Softzone.

Alucinaciones

Una alucinación es un texto generado por la IA con información completamente falsa, pero que a simple vista puede parecer convincente. El modelo no «miente» deliberadamente. Todo se basa en que su funcionamiento predice palabras que suenan correctas aunque sean inventadas. Detectarlas es muy fácil y podemos atajar el problema de raíz: solo tienes que escribir el prompt de solicitarle fuentes verificables y comprobar la información, al menos, de 3 fuentes distintas.

Si te responde que Miguel de Cervantes tenía correo electrónico, no hay mucho más que añadir.

Token

La unidad mínima de texto que la IA puede procesar. Puede ser una palabra completa, parte de una palabra o un signo de puntuación. «Hola» = 1 token. Tiene un enorme valor para los usuarios y empresas comerciales. Y es que la gran mayoría de empresas cobran por tokens, y cada modelo tiene un límite de tokens para trabajar con ellos. Si lo superamos, el modelo «olvida» el tema.

Ventana de Contexto

La cantidad máxima de información (calculada en tokens) que una IA puede procesar de manera simultánea. Hay modelos que pueden procesar 4.000 tokens, 128.000 tokens o rebasar el millón de tokens. Si superamos ese límite, el modelo olvida el inicio de la conversación

Ajuste fino

Supone la acción de entrenar un modelo con nuestros propios datos para personalizarlo. Básicamente, es como entregarle 100 libros especializados en vez de 10.000 genéricos. Por lo que es un término muy relacionado con varios sectores empresariales que quieren modelos especializados (banca, medicina, mecánica…) pero no demasiado importante para usuarios generalistas.

LLM (Modelo de Lenguaje Grande)

Un modelo de IA entrenado en miles de millones de palabras para predecir la siguiente palabra. ChatGPT, Gemini, DeepSeek o Claude son ejemplos perfectos de LLM. Funcionan plenamente mediante patrones estadísticos, no mediante un pensamiento real.

Temperatura

Este parámetro mide el control de la creatividad frente a la precisión, y se distribuye entre números del 0 al 2. Cuando la temperatura es «2», las respuestas son muy creativas, pero poco fiables. Justamente lo contrario de cuando nos encontramos frente a temperatura «0».