Este trabajo presenta un modelo del lenguaje con restricciones basado en GPT-2 entrenado para la generación de poesía en español. Nuestra propuesta aplica restricciones a las secuencias generadas para satisfacer rima y métrica, mediante un proceso de backtracking en el proceso de generación de texto. Para su evaluación se ha llevado a cabo un test de Turing sobre una muestra de población lega, y una evaluación de diversos factores sobre una escala de Likert por expertos. A pesar de la simplificidad relativa de GPT-2 frente a modelos actuales, los resultados obtenidos ponen en valor los sistemas de generación basados en restricciones frente a modelos con mayor número de parámetros y más costosos de entrenar.
This paper presents a GPT-2 based constrained language model trained for poetry generation in Spanish. Our proposal applies constraints to the generated sequences to satisfy rhyme and meter, by means of a backtracking process in the text generation process. For its evaluation, a Turing test has been carried out on a sample of lay population, and an evaluation of several factors on a Likert scale by experts. Despite the relative simplicity of the GPT-2 model compared to current ones, the results obtained highlight the value of constraint-based generation systems as opposed to models with a larger number of parameters and which are far more expensive to train.