El discurso del odio ha proliferado significativamente en los últimos años, en gran medida impulsado por la adopción generalizada de plataformas de redes sociales. El discurso de odio a menudo opera de manera implícita, aprovechando estereotipos sutiles para propagar pensamientos discriminatorios. Estos mecanismos encubiertos han permitido que el contenido odioso se oculte a si mismo, haciendo que su detección resulte cada vez más compleja. Como resultado, la lucha contra los discursos de odio se ha convertido en una prioridad urgente, impulsando la adopción generalizada de modelos de aprendizaje profundo para detectar y combatir contenidos nocivos. Dada la naturaleza inherentemente subjetiva de los discursos del odio, es necesario desarrollar modelos que sean lo más generalizables posible. Esto ha llevado a la aparición del paradigma de aprendizaje con desacuerdos, que tiene como objetivo introducir desacuerdos dentro de la propia tarea para mejorar la generalizabilidad del modelo. Este trabajo investiga este ´ultimo paradigma a través de dos shared tasks. La primera tarea, DETEST-Dis, explora los estereotipos contra los inmigrantes en comentarios en línea y fue organizada en IberLEF 2024. Nuestros resultados se encuentran entre los mejores de todos los equipos participantes, superando los enfoques tradicionales. La segunda tarea, EXIST, se centra en el sexismo en los memes y fue organizada en CLEF 2024. En este caso, nuestro rendimiento presenta una mejoría añadiendo características de un modelo externo así como también data augmentation. Nuestro código fuente se puede encontrar en https://github.com/Buzzeitor30/DETESTS-DIS y https://github.com/Buzzeitor30/EXIST-TFM
Hate speech has proliferated significantly in recent years, largely driven by the widespread adoption of social media platforms. Hate speech often operates implicitly, leveraging subtle stereotypes to propagate discriminatory views. These covert mechanisms allow harmful content to disguise itself, making detection increasingly complex. As a result, tackling hate speech has become an urgent priority, driving the widespread adoption of deep learning models to detect and combat harmful content. Given the inherently subjective nature of hate speech and its nuanced manifestations, there is a need to develop models that are as generalizable as possible. This has led to the emergence of the learning with disagreements paradigm, which aims to introduce disagreements within the task itself to enhance model generalizability. This paper investigates the latter paradigm through two shared tasks. The first task, DETEST-Dis, explores stereotypes against immigrants in online comments and was organized at IberLEF 2024. Our results are among the best of all participating teams, surpassing traditional approaches. The second task, EXIST, focuses on sexism in memes and was organized at CLEF 2024. Here, our performance is enhanced by adding features from an external model as well as data augmentation. Our source code can be found on https://github.com/Buzzeitor30/DETESTS-DIS and https://github.com/Buzzeitor30/EXIST-TFM.