Helena Gómez Adorno, Gemma Bel Enguix , Hiram Calvo, Sergio Ojeda Trueba, Scott Thomas Andersen, Juan Vásquez, Tania Alcántara, Miguel Soto, Cesar Macias
Presentamos la tarea compartida HOMO-MEX organizada en IberLEF 2024, como parte de la 40to. Congreso Internacional de la Sociedad Española de Procesamiento del Lenguaje Natural (SEPLN 2024). El objetivo de esta tarea es promover el desarrollo de sistemas de procesamiento del lenguaje natural capaces de detectar y clasificar contenido LGBT+fóbico en publicaciones y letras de canciones en español. HOMO-MEX 2024 se compone de tres subtareas: Tarea 1 sobre detección de fobia hacia comunidades LGBT+ en publicaciones en redes sociales, Tarea 2 sobre identificación de fobias de grano fino y Tarea 3 sobre detección de fobia hacia comunidades LGBT+ en letras de canciones. En esta edición, 40 participantes se registraron en la plataforma Codabench. Para la subtarea 1 recibimos 19 predicciones, para la subtarea 2 recibimos 10 y para la subtarea 3 recibimos 17. Finalmente, 11 equipos presentaron artículos describiendo sus sistemas. La mayoría de los sistemas utilizaron Transformers para abordar la tarea, y los equipos con mejor desempeño incluyeron técnicas de preprocesamiento y aumento de datos.
We present the HOMO-MEX shared task organized at IberLEF 2024, as part of the 40th. International Conference of the Spanish Society for Natural Language Processing (SEPLN 2024). The aim of this task is to promote the development of natural language processing systems capable of detecting and classifying LGBT+phobic content in Mexican-Spanish digital posts and song lyrics. HOMO-MEX 2024 is composed of three subtasks: Task 1 on LGBT+phobia detection on social media posts, Task 2 on fine-grained phobia identification, and Task 3 on LGBT+phobia detection on song lyrics. In this second edition of HOMO-MEX, 40 participants registered on our Codabench platform. Subtask 1 received 19 submissions, subtask 2 received 10 submissions, and Subtask 3 got 17 submissions. Finally, 11 teams presented papers describing their systems. Most systems used transformer-based approaches to tackle the task, while the best-performing teams included data augmentation and preprocessing techniques.