De Guybrush a GPT

…o cómo los juegos conversacionales entrenaron nuestras mentes para hablar con máquinas.

“Yo aprendí prompt engineering jugando Monkey Island”

Por Francisco Morell (jupiter_tonante)

A veces pienso que todo empezó cuando tenía doce años, frente a una pantalla fosforescente que parpadeaba más que razonaba. No había conexión a Internet, pero sí una más profunda: la que se establece entre el jugador y un mundo hecho de comandos, verbos y objetos imposibles. “Usar pollo de goma con polea en cable”.

Esa línea, escrita con la solemnidad de quien invoca un hechizo, me abrió la puerta a una lógica que hoy reconozco como mi primer prompt engineering practice.

Una pedagogía encubierta

Es que, sin saberlo, estábamos entrenando cerebros humanos para pensar como las máquinas que aún no existían. Los que crecimos entre disquetes y pantallas VGA aprendimos que hablar con un juego no era tan distinto de conversar con un chatbot: había que elegir bien las palabras, entender el contexto, evitar la ambigüedad y, sobre todo, tener paciencia. Mucha paciencia.

El sistema SCUMM (Script Creation Utility for Maniac Mansion) no solo era una herramienta de programación: era una pedagogía encubierta. Lucasfilm Games -luego LucasArts- nos enseñó, con humor y pixel art, a modular el lenguaje para obtener respuestas coherentes. Cada vez que elegíamos “abrir puerta” o “hablar con Stan”, estábamos en esencia ajustando un prompt-click para un sistema que interpretaba lenguaje natural en un rango muy limitado.

Treinta años después, cuando los modelos de lenguaje generativo comenzaron a responder con ironía, contexto y empatía simulada, comprendí que la curva de aprendizaje había comenzado allí. El salto del parser al prompt fue menos un cambio de paradigma que una actualización de software mental. Y en el fondo, me di cuenta de algo casi inquietante: no solo habíamos aprendido a hablar con las máquinas… sino que las máquinas habían aprendido a pensar como nosotros, los jugadores.

Cuando el mundo se ejecutaba en DOS

Había una época en que los verbos dominaban la pantalla. En la parte inferior del monitor, una lista de órdenes brillaba como un menú de posibilidades infinitas: “abrir”, “usar”, “empujar”, “hablar”, “mirar”. Bastaba un clic en el verbo, otro en el objeto, y el mundo se desplegaba ante nosotros como una oración completada.

Los diseñadores de Lucasfilm Games entendieron pronto que la gramática podía ser una interfaz. El SCUMM -creado en 1987 por Ron Gilbert y Aric Wilmunder– era una pequeña revolución en sí mismo. No solo permitió desarrollar Maniac Mansion sin reescribir miles de líneas de código, sino que estandarizó una forma de interacción entre lenguaje y acción. Como explicaba Gilbert (1993), “queríamos que los jugadores se sintieran escritores de su propia historia, pero dentro de una sintaxis coherente que el juego pudiera entender”.

La sintaxis, justamente, era la clave. En Maniac Mansion, Zak McKracken o Monkey Island, cada acción era una oración compuesta: un verbo, un objeto, y a veces un contexto.

Esa estructura tripartita -similar al modelo semántico de la lingüística computacional de los 70 (Winograd, 1972)- es casi idéntica al modo en que hoy se estructuran las intents y entities de los modelos de lenguaje. Nada muy distante de las 5 fases de la Teoría de los Juegos de la Comunicación  –Conversation and Behavior Games in the Pragmatics of Dialogue, publicada en Cognitive Science ya en 1993, y citado por Chumbita, 2025)-, es decir: Significado literal, Intención del Hablante, Efecto Comunicativo, Reacción y Respuesta. En términos simples: las aventuras gráficas fueron chatbots primitivos con alma de comedia.

Pero la diferencia era cultural. Los 80 y 90 no fueron una época de inmediatez, sino de paciencia lúdica. Los errores no eran frustrantes, sino pedagógicos. Si el juego no entendía tu comando, la culpa no era del programa: era tuya, por no haber aprendido aún su idioma. “No puedes hacer eso”, respondía la máquina, y uno insistía, convencido de que la frase correcta existía, escondida en algún rincón del diccionario interno del SCUMM.

En un sentido casi freudiano, esas interacciones moldearon la relación posterior entre humanos y sistemas de inteligencia artificial. Aprendimos que la comunicación con una máquina no es lineal, sino dialógica. Como decía Gregory Bateson (1972), “la información es una diferencia que produce diferencia”. Cada entrada errónea en el parser producía una micro-corrección en nuestro modo de pensar. Nos volvíamos brevemente lingüistas, psicólogos computacionales y humoristas, todo a la vez.

La genialidad de Gilbert, Schafer y equipo no estaba solo en los guiones o el humor absurdo, sino en la pedagogía cognitiva inadvertida. Cada puzzle enseñaba algo sobre inferencia contextual. Si en Monkey Island no podías vencer a un pirata en duelo físico, podías hacerlo insultándolo con ingenio. Si un objeto no servía en un lugar, quizás servía combinado con otro, o simplemente era un distractor. El jugador aprendía a pensar en red, no en línea recta.

Eso -pensar en red- es lo que luego llamaríamos pensamiento de atención distribuida. El mismo principio sobre el que se basan los modelos Transformer. Cada palabra, cada elemento del entorno, tiene un peso contextual distinto, y su sentido emerge de su relación con los demás. Cuando en Day of the Tentacle tenías que enviar un objeto al pasado a través de un inodoro modificado como una máquina del tiempo, lo que se estaba modelando era, paradójicamente, una red semántica: causa, efecto, tiempo, contexto.

Lo que SCUMM nos enseñó

El SCUMM era un sistema modular. Cada escena, cada objeto, cada línea de diálogo era un nodo interconectado. No había aprendizaje automático, pero sí diseño emergente. En el fondo, el juego respondía no solo al input, sino al estado global del mundo. Eso mismo hace hoy un modelo de lenguaje: cada respuesta depende del context window, de todo lo que “ha visto” antes.

Para mí esto era lo distintivo. También teníamos a Sierra, con sus juegos King´s Quest, The Dagger of Amon Ra y similares que, aunque más complejos, tenían una secuencia mucho más lineal. Quiero decir, si LucasArts hubiera tenido GPUs y datasets, probablemente habría inventado los Transformers por accidente. Pero lo que sí tuvo fue una comprensión intuitiva de cómo la mente humana estructura el conocimiento: a través de asociaciones, no de secuencias.

El parser era el primer intento serio de una interfaz de lenguaje natural en el entretenimiento digital. Como recordaba Noah Falstein (1991), “nuestros juegos eran experimentos sobre cómo lograr que el jugador pensara en términos del mundo, no del código”. Esa traducción mental -de intención a comando formal- es, básicamente, el corazón del prompt engineering actual.

Cuando hoy pedimos a una IA que “escriba una historia al estilo de Lovecraft ambientada en Bahía Blanca”, estamos haciendo lo mismo que hacíamos al escribir abrir puerta con palanca: establecer relaciones semánticas, restringir el contexto, definir tono y objetivo.

Los diseñadores de aventuras sabían que la ilusión de inteligencia emergía del diseño de respuestas plausibles. No era necesario que el juego “pensara”, sino que respondiera de manera coherente a la intención percibida. La diferencia entre el parser y los Transformers es que el segundo ya no depende de un guionista que prevea todas las combinaciones posibles, sino de un modelo que infiere nuevas combinaciones a partir de millones de ejemplos.

Pero el principio -la lógica subyacente- es el mismo: reconocer intención, mapear contexto, generar respuesta.

Y lo genial del universo de LucasArts es que el error era parte del aprendizaje. Los juegos no castigaban, enseñaban. Si usabas el verbo incorrecto, el personaje te respondía con sarcasmo … si no sabías cómo seguir en ese cuadro, avanzabas al siguiente… no perdías el juego. Esa ironía pedagógica fue, sin quererlo, una forma temprana de feedback reinforcement. El jugador ajustaba su lenguaje, aprendía los límites del sistema, y finalmente encontraba la fórmula correcta.

La semilla de la IA

Una dinámica casi idéntica al proceso de prompt refinement, o el Vibe Coding, en la interacción con IA: probás, fallás, reformulás, descubrís la sintaxis que activa la respuesta deseada. El “bucle de aprendizaje del jugador” anticipó, con humor y frustración, el “bucle de entrenamiento del usuario de IA”.

No es casual que muchos de los actuales especialistas en prompt engineering sean hijos o nietos culturales de esa era. Los que crecimos en los 80 y 90 no vemos a la inteligencia artificial como una caja negra incomprensible, sino como un viejo juego con reglas ocultas que pueden hackearse con ingenio. Aprendimos que el lenguaje no es solo comunicación: es programación disfrazada.

Marshall McLuhan decía que “el medio es el mensaje”. En los juegos de Lucasfilm, la interfaz era el medio y el mensaje a la vez. Nos enseñó a pensar modularmente, a entender que la información no existe en el vacío, sino en redes de relaciones.

Si la IA moderna tiene un context window, el jugador de 1990 tenía una ventana de DOS. Dentro de ella, todo era posible: la imaginación hacía el trabajo que hoy hace el pretrained data. Y aunque no existía el aprendizaje profundo, sí había aprendizaje humano profundo.

El diseño del SCUMM -basado en scripts independientes, eventos, y condiciones de activación- anticipó el modelo de “atención selectiva” de los Transformers, que desplazó las redes neuronales  secuenciales por las de recurrencia. No toda la información del juego se evaluaba simultáneamente; el motor elegía qué partes del contexto eran relevantes según la acción. Así también lo hacen los LLM: ponderan cada token según su peso semántico y su posición relativa.

En 1987, cuando Maniac Mansion se ejecutaba en disquetes de 5¼, nadie imaginaba que ese sistema rudimentario de “atención condicional” sería la semilla de la inteligencia artificial generativa. Pero lo fue, porque enseñó a una generación a pensar como programadores del sentido. Porque, sí, antes de los datasets, existían los diskettes; antes del prompt, existía el parser; antes del attention mechanism, existía el verbo “usar”. Y en esa transición cultural -de los comandos rígidos al lenguaje fluido- se esconde la verdadera prehistoria de la inteligencia artificial conversacional.

El SCUMM no solo permitió crear juegos icónicos; fue un laboratorio cognitivo para toda una generación. Nos enseñó a hablar con máquinas con ironía, estructura y empatía. Hoy, cuando un modelo de lenguaje “comprende” nuestras intenciones, lo hace sobre la misma arquitectura mental que aprendimos de chicos: verbo, objeto, acción… y un toque de sarcasmo. Al fin y al cabo, si algo nos enseñó Monkey Island es que el conocimiento, como el ron de los piratas, se destila entre errores, risas y líneas de código que aún huelen a 1990.

De los árboles de diálogo a las redes de atención

Durante años mis padres creyeron que mis largas conversaciones con Guybrush Threepwood o Bernard Bernoulli eran solo una forma de procrastinar… y -admito- a veces hasta yo me lo creía. Pero con el tiempo entendí que en realidad estaba entrenando, sin saberlo, una especie de reflejo cognitivo: el arte de persuadir a una máquina con las palabras exactas. Aquello que hoy llaman prompt engineering era, en 1990, simplemente “intentar que el juego me entendiera”.

Los primeros parsers de texto -desde Zork hasta King’s Quest– fueron los antepasados conceptuales de los actuales modelos de lenguaje. No sabían pensar, pero sabían reconocer patrones. La instrucción “take lantern” o “abrir puerta” activaba un bloque de código, una pequeña red de decisiones que transformaba texto en acción. En términos modernos, era un embedding manual: el jugador debía traducir su intención al idioma de la máquina.

El SCUMM refinó ese proceso. Ya no hacía falta teclear; bastaba con combinar verbo y objeto. Pero el principio cognitivo era el mismo: la máquina solo comprendía si el jugador aprendía su gramática. Lo que hoy los ingenieros llaman prompt alignment -la capacidad de ajustar un mensaje al modelo para obtener la respuesta deseada- era entonces un ejercicio cotidiano de paciencia pixelada.

No estoy siendo original cuando digo que “Los juegos de aventuras nos enseñaron que comunicarse con una computadora era un acto de empatía sintáctica” (Falkenberg, “Narrativas de Interfaz”, 2019). En The Secret of Monkey Island, esa empatía era literal. El humor y la irreverencia funcionaban como prueba de comprensión mutua. Cuando el juego respondía con sarcasmo, era porque había interpretado el comando, aunque no pudiera ejecutarlo. Una especie de ChatGPT de 16 bits que ya intuía el valor de la ironía como señal de inteligencia.

La estructura narrativa de los juegos SCUMM era, esencialmente, un árbol de decisiones. Cada nodo contenía una línea de diálogo o una acción; cada rama, una posible respuesta del jugador. Lo que parecía una simple estructura de guión era, en realidad, una red semántica con pesos fijos: cada elección alteraba el estado global del juego, influía en los futuros diálogos y desbloqueaba rutas alternativas. Si lo pensamos bien, ese árbol de diálogo es el antepasado espiritual de la arquitectura Transformer. En ambos casos, el significado de una palabra o acción depende de su contexto anterior y posterior. La diferencia es que el juego dependía de un diseñador que anticipaba cada posibilidad, mientras que el Transformer infiere nuevas conexiones por sí mismo. Pero la lógica de fondo -relacional, contextual, no lineal- ya estaba ahí.

El attention mechanism descrito por Vaswani et al. (2017) formalizó este principio: cada palabra de una secuencia no se interpreta aisladamente, sino ponderando su relación con todas las demás. Cuando Guybrush decía “¡Mira, detrás de ti, un mono de tres cabezas!”, y el jugador elegía entre múltiples respuestas posibles, el sistema evaluaba -de forma primitiva- la relevancia contextual de cada elección. Esa ponderación semántica, hoy expresada en matrices de atención, era entonces un conjunto de condicionales y banderas lógicas. O, mejor dicho, “El modelo aprende a asignar diferentes pesos a cada token en función de su relación con los demás, permitiendo que el contexto determine el significado” (Vaswani et al., 2017, p. 3).

Lo que en los 90 era un if-then-else, hoy es un softmax de pesos de atención. La poesía del código ha cambiado de sintaxis, pero no de propósito: sigue intentando capturar cómo el contexto da sentido a las palabras.

Por eso, el prompt engineering moderno -esa disciplina que combina psicología, lingüística y brujería aplicada- tiene mucho de jugador de aventuras gráficas. El buen prompt no es el más largo ni el más complejo, sino el que sabe invocar el contexto correcto. En Maniac Mansion, si usabas “empujar” en lugar de “abrir”, la puerta seguía cerrada. En ChatGPT, si escribís “dame una lista” en vez de “proporcioname un esquema jerárquico”, el modelo toma un camino distinto en su árbol de inferencias. Lo que cambia no es la máquina: somos nosotros los que aprendemos su lenguaje.

Como señalan Reynolds y McDonell (2021), el prompt engineering consiste en “moldear la entrada para guiar la atención del modelo hacia el resultado deseado”. En otras palabras, es una forma moderna de clickear verbo y objeto en el orden correcto. El jugador de 1990 y el ingeniero de 2025 comparten la misma habilidad cognitiva: traducir intención en estructura. Uno lo hacía con un mouse sobre un menú de verbos; el otro, con sintaxis natural y un conocimiento tácito de los sesgos del modelo. Pero ambos saben que el lenguaje no describe el mundo: lo ejecuta.

Si nos detenemos a pensar dos minutos la frase “Prompting is the act of programming through persuasion” (Reynolds & McDonell, 2021), entenderemos que los diseñadores de Lucasfilm fueron los primeros prompt engineers de la historia. Crearon sistemas que respondían no solo a la lógica del código, sino a la lógica de la conversación. Y los jugadores, a su vez, se convirtieron en entrenadores cognitivos de su propio cerebro algorítmico.

Obviamente, el SCUMM estaba construido sobre scripts, pequeñas rutinas que definían el comportamiento de cada escena y personaje. Cada script podía acceder a variables globales del juego: inventario, progreso, eventos activados. Era un sistema de memoria contextual, sorprendentemente similar a la context window de los LLM.

En un modelo Transformer, la atención distribuida permite que cada token “vea” a los demás en la secuencia, asignando relevancia a cada uno. En SCUMM, cada script “veía” el estado del mundo: si una puerta estaba abierta, si un objeto había sido usado, si un personaje estaba disponible. Ambos operaban bajo una premisa fundamental: el significado depende del contexto. Esta analogía no es solo poética. Si uno revisa los manuales internos del SCUMM (publicados por preservadores como The Digital Antiquarian, 2015, https://www.filfre.net/tag/scumm/), puede leer frases como: “Every line must know its room, every verb must know its actor”. Esa sentencia podría estar en el paper de Vaswani y nadie notaría la diferencia: las unidades básicas (verbos, tokens) adquieren sentido solo en relación con su posición dentro de un contexto dinámico.

Claro que hay diferencias entre un guión cerrado y un modelo generativo. En los 90, había respuestas previstas, límites visibles. Aunque la ilusión de libertad era tan fuerte que el jugador sentía que podía decir cualquier cosa. Los Transformers parecen haber completado ese sueño, en el que la máquina puede generar infinitas combinaciones plausibles. Pero el precio de esa libertad el el costo de soportar un caos que abandona la idea de que cada chiste tenía intención… ahora la intención se diluye en un océano de correlaciones estadísticas.

Sin embargo, ambas formas de inteligencia -la humana curada y la estadística emergente- comparten el mismo mecanismo cognitivo: la anticipación del contexto más probable. Los LLms no piensan: completan. Pero los juegos de Lucasfilm tampoco pensaban: hacían creer que lo hacían. Esa ilusión de diálogo coherente es, quizá, el mayor logro compartido entre el SCUMM y los Transformers. Ambos sistemas simulan inteligencia a través de estructura, consistencia y respuesta contextual.

Siendo sincero, ignoro ya si el modelo ya venía entrenado así o se perfeccionó con el uso, pero encuentro también que en ambos casos el humor funciona como gancho. Ron Gilbert solía decir que “el humor era la forma más económica de transmitir lógica” y tenía razón. El humor en los juegos de Lucasfilm era un mecanismo de alineación: enseñaba al jugador qué tipo de mundo estaba habitando, donde las soluciones no eran literales, sino semánticas. La ironía servía como feedback loop: si intentabas algo absurdo, el juego respondía con sarcasmo, recordándote que la lógica del sistema no coincidía con la del mundo real. Eso mismo busca hoy el alignment en los LLMs: ajustar el modelo para que responda de acuerdo con las expectativas humanas, sin caer en literalismos dañinos.

Cuando un modelo evita responder de forma ofensiva o absurda, lo hace porque fue entrenado, en parte, con el mismo principio pedagógico que Guybrush usaba para corregir a los piratas torpes: el humor como frontera del sentido. “Alineamos modelos no solo con reglas, sino con tono” (Liu et al., 2023, p. 14)

La memoria del pirata fantasma

La primera vez que me di cuenta de que no era libre, no fue en la vida real -eso vino más tarde-, sino en Monkey Island. Podía recorrer islas, insultar piratas y desafiar fantasmas, pero siempre dentro del guión que otro había escrito. Era una libertad vigilada, un parque de diversiones con barrotes invisibles. Y aun así, la ilusión era perfecta.

Treinta años después, cuando una IA me responde con tono cómplice, reconozco la misma sensación. Puedo preguntarle lo que quiera, pero sus respuestas también están dentro de un mundo preentrenado que -además- tiende a responderme con más empatía empalagosa que el propio Stan. El libre albedrío del usuario es, como en los juegos de los 90, una ficción cuidadosamente diseñada.

Los diseñadores de aventuras sabían algo que los ingenieros de IA redescubrieron décadas más tarde: el contexto lo es todo. En Monkey Island, si insultabas a un pirata con la frase equivocada, el duelo se perdía. Pero si usabas el mismo insulto en otro momento, podía ser la clave de la victoria (como en la batalla definitiva con The Sword Master). El mismo texto, distinto contexto.

El sistema Transformer se basa precisamente en eso: no hay palabras fijas, solo relaciones dinámicas. El modelo no sabe qué significa “pirata”, pero comprende cómo se comporta “pirata” en relación con “espada”, “insulto” o “ron”. La IA no entiende -reacciona con probabilidad contextual- del mismo modo en que Guybrush no “entendía” al jugador, pero respondía con asombrosa coherencia dentro de su mundo de bits.

Lo fascinante es que ambos sistemas -el SCUMM y los Transformers- no funcionan por causalidad, sino por asociación. No hay una “verdad” en sus respuestas: hay una red de coherencias. En Day of the Tentacle, el pasado y el futuro se comunicaban a través de un inodoro modificado. En ChatGPT, el pasado y el futuro del texto se comunican a través de la atención bidireccional. En ambos casos, la magia es la misma: el sentido no está en las palabras, sino en las conexiones invisibles entre ellas.

Y por supuesto, amaba navegar en esa ilusión en la que los juegos conversacionales de Lucasfilm me hacían creer que yo decidía eligiendo entre veinte respuestas, pero que todas conducían a una de tres posibles ramas del guión. La IA moderna también nos da esa ilusión: parece libre, pero está finamente guiada por un corpus moral y técnico diseñado por humanos, con sus sesgos y datos probabilísticos que son eminentemente falsos.

El fine-tuning de los modelos actuales -el proceso de ajuste de respuestas para que no sean tóxicas, incorrectas o impropias- es la versión contemporánea de los límites de acción en una aventura gráfica. Cuando el modelo rehúsa responder algo o cambia de tema con elegancia, está aplicando el equivalente de “no puedes hacer eso aquí”. El jugador de 1990 lo aceptaba como parte del encanto; el usuario de 2025 lo percibe como censura o sesgo. Pero ambos olvidan que esa contención es precisamente lo que hace posible la coherencia narrativa.

En Monkey Island, el caos sin guión habría arruinado la historia. En los LLM, la ausencia de límites arruinaría el sentido o podría implicar riesgos desconocidos frente a la falta de contención tecnológica (Suleyman, 2023). La libertad total era el fin del relato.  Pero aún podemos seguir practicando con  el fail. Nos encantaba equivocarnos, probar comandos imposibles, ver qué decía el juego. El humor y la risa consecuente  emergían de la frustración. Hoy, las IA Gen nos devuelven esa sensación perdida cuando escribimos un prompt ambiguo y el modelo responde con algo brillante o absurdo. El error vuelve a ser productivo: un punto de partida para el descubrimiento.

Quizás por eso el prompt engineering tiene tanto de arte como de técnica. No se trata de “ordenar”, sino de seducir a la máquina con la ambigüedad justa. Un prompt demasiado literal mata la magia; uno demasiado vago la confunde. El secreto está en ese punto medio donde la máquina se siente libre… aunque siga dentro del guión.

Por eso mismo es que no me gusta la nueva tendencia de las plataformas de IA Generativa que abusan del Prompt-Click. El mismo instante de fe. Ese microsegundo entre la intención y la respuesta, entre la curiosidad y el asombro, entre la mente humana y la sintaxis artificial. Esa pausa suspendida en la que, como niños frente a una pantalla CRT, volvemos a creer que las palabras tienen poder, que nuestra elecciones son únicas y determinan el resultado de algo nuevo.

Porque en el fondo, nada cambió: seguimos lanzando frases al vacío esperando que algo, del otro lado, nos devuelva sentido. Solo que antes la respuesta venía en 16 colores y 12 verbos; ahora llega en trillones de parámetros y un suave murmullo estadístico.

El alma estuvo siempre en el algoritmo. Ron Gilbert solía decir que el secreto de Monkey Island no era un tesoro, sino “una buena conversación”. Tenía razón. Cada diálogo con una IA es una continuación de esa conversación interminable entre el hombre y su reflejo tecnológico.

Los Transformers no tienen alma, pero son espejos de la nuestra. Aprendieron a hablar leyendo lo que escribimos durante siglos: manuales, novelas, discusiones, chistes. Entonces, nos devuelven, amplificada, nuestra propia voz colectiva. Y tal vez esa sea la lección final: los juegos de Lucasfilm no predijeron la inteligencia artificial, sino la inteligencia compartida. Nos enseñaron que pensar con humor, contexto y curiosidad es la única forma de mantener humanidad frente a la máquina.

Por todo esto es que me gusta imaginar que Guybrush Threepwood aún vive, escondido en algún bit olvidado de un disquete de 3½. Que espera, paciente, que alguien vuelva a teclear un verbo, a intentar una frase nueva.

Quizás cuando escribimos un prompt, lo que realmente hacemos es hablarle a él. Al eco de todas esas aventuras donde aprendimos que el lenguaje podía cambiar el mundo, incluso uno hecho de píxeles.

Prompt. Click. Y el universo -o la máquina- responde. Como siempre lo hizo.


Referencias bibliográficas


Bateson, G. (1972). Steps to an Ecology of Mind. University of Chicago Press.

Chumbita, S. (2025). Prompt Engineering. La Ley. 

Falkenberg, A. (2019). Narrativas de Interfaz. MIT Press.

Gilbert, R. (1993). “The Secret of Monkey Island: Postmortem”. Game Developers Conference Archives.

Liu, H., et al. (2023). Alignment through dialogue: Fine-tuning conversational AI. arXiv preprint arXiv:2301.01342.

McLuhan, M. (1964). Understanding Media: The Extensions of Man. McGraw-Hill.

Reynolds, L., & McDonell, K. (2021). Prompt Programming for Large Language Models. OpenAI Research Notes.

Suleyman, M. & Bashkar, M. (2025). La ola que viene. Debate.

Vaswani, A., et al. (2017). Attention is All You Need. Advances in Neural Information Processing Systems.

Winograd, T. (1972). Understanding Natural Language. Academic Press.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *