Luz Gahona Castillejos, Delia Irazu Hernández Farías, Humberto Pérez Espinosa
El reconocimiento de emociones en niños es un área de estudio poco explorada en comparación con su contraparte en adultos, en parte debido a la escasez de datos disponibles. En este trabajo presentamos CHERISH, un corpus multimodal para el reconocimiento de emociones en niños de habla hispana. Nuestra metodología de obtención de datos incluye diversas fuentes como el habla, transcripciones del habla, descripción del comportamiento realizada por un observador humano y rasgos de personalidad obtenidos mediante el Cuestionario de Personalidad para Niños (CPQ por sus siglas en Inglés). Cada una de estas modalidades aporta información clave para mejorar la precisión del reconocimiento emocional: el habla proporciona información de como se expresan los mensajes vocales, las transcripciones reflejan el contenido semántico del discurso, la descripción del comportamiento ofrece contexto sobre el lenguaje corporal y la personalidad que influye en la forma en que los niños expresan y regulan sus emociones. Este corpus busca contribuir en la investigación sobre el reconocimiento de emociones en niños, lo cual podría permitir el desarrollo de modelos más robustos que puedan aplicarse en educación, salud y tecnologías de asistencia infantil. Finalmente, también proporcionamos una línea base de la tarea de reconocimiento de emociones en dos configuraciones.
Emotion recognition in children remains significantly less explored than in adults, largely due to the limited availability of annotated data. To address this gap, we introduce CHERISH, a multimodal corpus for emotion recognition in Spanish-speaking children. Our data collection methodology includes various sources such as speech, speech transcriptions, behavioral descriptions provided by a human observer, and personality traits obtained through the Children's Personality Questionnaire (CPQ). Each of these modalities contributes key information to enhance children emotion recognition: speech provides insights into vocal expression, transcriptions reflect the semantic content of speech, behavioral descriptions offer context on body language, and personality since it influences how children express and regulate their emotions. We aim to contribute research on emotion recognition in children, which could enhance the development of more robust models that can be applied in education, healthcare, and child-assistive technologies. Additionally, we present baseline results for the emotion recognition task under two experimental conditions, establishing a foundation for future comparative studies.