Gemma Bel Enguix
, Helena Gómez Adorno, Sergio Ojeda Trueba, Gerardo Sierra
, Jessica Barco, Edgar Lee Romero, Jocelyn Dunstan, Ruben Manrique
En este artículo presenta la tarea compartida HOMO-LAT organizada en IberLEF 2025, como parte de la 41 International Conference of the Spanish Society for Natural Language Processing (SEPLN 2025). El objetivo de esta tarea es fomentar el diseño de algoritmos capaces de capturar la polaridad de los comentarios de Reddit sobre palabras clave referidas a la comunidad LGBTQ+. HOMO-LAT es una continuación de HOMO-MEX 2023 y 2024, con la particularidad de que incluye mensajes de 19 países latinoamericanos de habla hispana. La tarea compartida ha constado de dos tracks. En el Track 1 los datos de test correspondían a los mismos subredits que los datos de entrenamiento. El Track 2 es multivariante, ya que los datos de test pertenecían a países diferentes que los datos de entrenamiento. En la fase de evaluación participaron seis equipos, cuyos resultados se analizan en el artículo. Por lo que respecta a las aproximaciones elegidas por los participantes, todos ellos usaron modelos basados en Transformers. Dos de ellos trabajaron también con ML tradicional y dos más usaron LLMs.
This paper presents the HOMO-LAT shared task organized at IberLEF 2025, as part of the 41st International Conference of the Spanish Society for Natural Language Processing (SEPLN 2025). Our goal is to foster the design of algorithms capable of capturing the polarity of Reddit comments on keywords referring to the LGBTQ+ community. HOMO-LAT is a continuation of the past tasks HOMO-MEX 2023 and 2024, with the particularity of including posts from 19 Spanish-speaking Latin American countries. The shared task consisted of two tracks. In Track 1, the test data corresponded to the same subreddits as the training data. Track 2 is cross-lingual, since the test data belonged to different countries from the training data. Six teams participated in the evaluation phase. Regarding the approaches chosen by the participants, all of them used models based on Transformers. Two of them also worked with traditional ML, and two more used LLMs.