Miguel Amores Fuster
Este artículo propone una reflexión metodológica y epistemológica sobre el modo de concebir y evaluar la capacidad de escribir textos literarios ficcionales de los grandes modelos de lenguaje, o large language models, en inglés (LLM). Comenzamos describiendo algunas de las dificultades estructurales de esta relación, que se resumen en el antagonismo entre la naturaleza autorregresiva de los LLM —que los lleva a elegir unas palabras sobre otras por una cuestión de probabilidad estadística— y el carácter asistemático de la escritura literaria de ficción. Posteriormente justificamos que la mejor forma de comprobar el potencial de los LLM para esta tarea es una metodología de prompt múltiple expresada en términos literarios —es decir, subjetivos y asistemáticos—. Por último, se analizan los resultados de un experimento que siguió esta premisa, y en el que se apreció una clara mejoría entre la primera versión y la quinta del texto, entre las que mediaron cuatro rondas de prompts con veintinueve correcciones concretas.
This article proposes a methodological and epistemological reflection on the conceptualization and evaluation of the capacity of Large Language Models (LLMs) to generate fictional literary texts. It, first, describes some structural difficulties of this relationship, summarized in the antagonism between the autoregressive nature of LLMs —which leads them to choose certain words over others due to a matter of statistical probability— and the unsystematic nature of fictional literary writing. Secondly, the article proposes that the best way to test the potential of LLMs for this task is a multiple-prompt methodology expressed in literary terms —that is, subjective and unsystematic. In an experiment following this premise, the results show a clear improvement between the first and the fifth version of the text, with four rounds of prompts and twenty-nine specific corrections.