Columbares formó a su equipo del área de discriminación y delitos de odio en inteligencia artificial y PLN el pasado 16 de abril en sus instalaciones de Murcia. La sesión, de carácter interno y presencial, estuvo dirigida a profesionales vinculados a la intervención social, el acompañamiento a víctimas, la comunicación y la prevención y sensibilización.
La formación fue impartida por María Teresa Martín Valdivia, catedrática del Departamento de Informática de la Universidad de Jaén y especialista en Procesamiento del Lenguaje Natural. Asimismo, es referente en el desarrollo de sistemas de análisis de sentimientos y emociones con fines sociales, incluyendo la detección de discurso de odio y lenguaje ofensivo en redes.
El enfoque de la jornada fue práctico y aplicado, pero con una base conceptual sólida. Por ello, el objetivo no fue únicamente presentar una herramienta, sino dotar al equipo de criterio técnico suficiente para interpretar los resultados de sistemas automáticos. De este modo, las personas participantes aprendieron a identificar limitaciones, sesgos y riesgos en el uso de la IA.
Los contenidos se organizaron en cinco bloques temáticos. El primero abordó los fundamentos de la IA generativa y los modelos de lenguaje. El segundo se centró en el PLN con fines sociales, incluyendo la detección automática de discurso de odio, lenguaje ofensivo y deshumanización. Además, se analizaron las limitaciones de estos sistemas ante el sarcasmo, los memes o los sesgos culturales.

Aplicación en intervención social
El tercer bloque trabajó la aplicación práctica de la IA en prevención, con indicadores útiles para la intervención social como patrones discursivos, emociones predominantes o riesgo de escalada. Por otro lado, el cuarto bloque se dedicó a las contranarrativas, explorando distintas estrategias para responder al odio sin amplificarlo. En este contexto, se presentó EmpatIA, una herramienta desarrollada por el instituto SINAI y diseñada específicamente para generar contranarrativas ante discursos de odio en redes sociales. La propia profesora Martín Valdivia forma parte del equipo que la creó, lo que aportó a la sesión una perspectiva de primera mano sobre su funcionamiento y sus posibilidades reales de aplicación en intervención social.
Por último, el quinto bloque abordó la ética, la privacidad y el enfoque de derechos en el uso de la IA. Sin embargo, este apartado no fue un añadido, sino un eje transversal de toda la jornada. Así, se trabajaron aspectos como la protección de víctimas, la no revictimización y la responsabilidad en el uso de tecnología en entornos de intervención social.
Esta formación se enmarca en el proyecto Está en tu mano – Acompaña. Prevención del racismo, xenofobia y delitos de odio, financiado por la Dirección General de Gestión Migratoria del Ministerio de Inclusión, Seguridad Social y Migraciones, y cofinanciado por la Unión Europea a través del Fondo Social Europeo + (Programa Estatal de Inclusión Social, Garantía Infantil y Lucha Contra la Pobreza (CCI 2021ES05SFPR003).)

