Datasets
WELIVE
WELIVE (Women and Emotion in real LIfe affectiVE computing dataset) es el conjunto de datos para computación afectiva del equipo UC3M4Safety. El objetivo principal de WELIVE es recopilar datos fisiológicos, auditivos y contextuales de mujeres en entornos auténticos y no controlados. El conjunto de datos está compuesto por datos multimodales de 14 mujeres voluntarias, incluidas víctimas de violencia de género (VBG), de entre 25 y 59 años (Todas ellas de nacionalidad española excepto 2) capturados de forma casi continua durante 7-10 días.
Antes de comenzar las grabaciones, se les entregó a las voluntarias un cuestionario, que completaron con la ayuda de una psicóloga para determinar sus rutinas de riesgo. A las rutinas se les asignó una puntuación de 0 a 3 en función del riesgo que representaban (siendo 0 y 1 de bajo riesgo, y 2 y 3 de alto riesgo). Para las rutinas de bajo riesgo, los dispositivos adquirieron datos basados en patrones periódicos de 5 minutos de encendido y 5 minutos de apagado. Para las rutinas de alto riesgo, los datos se adquirieron de forma continua.
En WELIVE se solicita el autoetiquetado de las respuestas emocionales de las participantes a los eventos de su vida diaria. También se les pide que etiqueten su ubicación semántica actual en diferentes momentos, como "casa", "trabajo", "transporte público", etc.
- Sistema de grabación
Las grabaciones se realizaron utilizando Bindi 2.0, el sistema desarrollado por UC3M4Safety que combina inteligencia artificial e Internet de las cosas (IoT) con el objetivo de informar automáticamente cuando una mujer está en riesgo en una situación relacionada con la violencia de género. Este sistema está compuesto por una pulsera, una aplicación móvil, un servidor y un colgante. Los datos recopilados por los dispositivos, en función de los niveles de riesgo rutinarios de las voluntarias se transmitieron a través de Bluetooth® a la aplicación móvil, que luego envió los datos a un servidor remoto para cifrarlos de forma segura y marcarlos con una marca de tiempo.
- Grabación de audio
El audio se grabó utilizando el colgante provisto de un micrófono. El circuito incluye un compresor de audio llamado OPUSy una conexión Bluetooth®, que transmitió los paquetes de audio comprimidos al teléfono móvil a una frecuencia de 8 Hz. Debido al ancho de banda limitado de la comunicación inalámbrica es necesaria esta compresión.
- Anotaciones
Las anotaciones utilizadas para este artículo fueron proporcionadas mediante autoetiquetado por las propias voluntarias a través de una aplicación móvil: podían anotar sus emociones, la intensidad de sus emociones en términos de valencia, excitación y dominio, sus ubicaciones y subir notas de voz en cualquier momento. Las voluntarias pueden etiquetar de dos maneras: una, confirmando o descartando una sugerencia del sistema en función de sus rutinas declaradas previamente y la segunda, por iniciativa propia, donde la voluntaria puede generar y completar una nueva etiqueta cuando lo considere necesario.
- Proceso de reclutamiento de participantes y recopilación de datos
Todas las voluntarias fueron reclutadas a través de las redes sociales y contactando a estudiantes e investigadoras de la Universidad Carlos III de Madrid.
Se solicitó a las voluntarias que completaran un cuestionario estándar para documentar sus actividades cotidianas y rutinas diarias, que posteriormente fueron categorizadas por un psicólogo especializado en violencia de género, en función de su relevancia para el estudio. A lo largo del experimento, las participantes tuvieron la opción de interrumpir su participación en cualquier momento. Las participantes fueron mujeres con antecedentes de violencia de género que obtuvieron una puntuación inferior a 21 puntos de un total de 63 en la Escala Revisada de Gravedad de los Síntomas del Trastorno por Estrés Postraumático (EGS-R). Este requisito se estableció para garantizar el bienestar de las participantes. Todos los procedimientos fueron aprobados por el comité de ética y protección de datos de la Universidad Carlos III de Madrid.
WEMAC
WEMAC (Women and Emotion Multi-modal Affective Computing Dataset) es una base de datos que nació durante el proyecto EMPATÍA pero que terminó de ser curada y publicada durante el proyecto Sapientiae4Bindi. Puedes leer su descripción en este artículo -provisionalmente alojado en el repositorio ArXiv-, en fase de revisión en la revista Nature Scientific Data:
- J. A. Miranda et al., «WEMAC: Women and Emotion Multi-modal Affective Computing dataset», 16 de abril de 2024, arXiv: arXiv:2203.00456
También se ha publicado en abierto la base de datos WEMAC con los siguientes componentes:
- E. Rituerto-González et al., «UC3M4Safety Database - WEMAC: Audio features». e-cienciaDatos, 2 de junio de 2022. doi: 10.21950/XKHCCW
- J. A. Miranda Calero et al., «UC3M4Safety Database - WEMAC: Emotional labelling». e-cienciaDatos, 2 de junio de 2022. doi: 10.21950/RYUCLV
- A. Miranda Calero et al., «UC3M4Safety Database - WEMAC: Biopsychosocial questionnaire and informed consent». e-cienciaDatos, 2 de junio de 2022. doi: 10.21950/U5DXJR
- J. A. Miranda Calero et al., «UC3M4Safety Database - WEMAC: Physiological signals». e-cienciaDatos, 2 de junio de 2022. doi: 10.21950/FNUHKE
Esta web es parte del proyecto PDC2021-121071-I00, financiado por MICIU/AEI/10.13039/501100011033 y por la Unión Europea “NextGenerationEU/PRTR”.
Grant PDC2021-121071-I00, funded by MICIU/AEI/ 10.13039/501100011033 and by the European Union “NextGenerationEU/PRTR”.