CHARLIE

Desafiando el sesgo en el usuario de Big Data para AI y Machine Learning

Concienciando sobre el impacto negativo de la falta de un enfoque crítico y ético, en aspectos relacionados con la IA en general y con el machine learning es especial, en el marco de la actual oferta educativa en TIC.

Información del proyecto

Web del proyecto

Programa de financiación

Erasmus+ KA2. Cooperación para la innovación y el intercambio de buenas prácticas. Asociaciones estratégicas para la Educación Superior

Presupuesto del proyecto

400.000

Duración del proyecto

30/12/2022- 29/06/2025

Compartir proyecto
Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on whatsapp
Share on email

La Inteligencia Artificial ya está en nuestra vida cotidiana. Desde el algoritmo que reconoce nuestro rostro cuando caminamos por la calle alimentando los servicios de seguridad biométrica de la policía hasta el algoritmo que elige la publicidad que veremos en nuestras redes sociales, la IA está en todas partes. Pero aunque el aprendizaje automático y la IA son matemáticas, no siempre tienen razón y esto sucede porque los datos que se procesan para llegar a una conclusión pueden ser, y a menudo lo son, sesgados. Las ciencias sociales han estado estudiando el sesgo humano durante muchos años y que puede dar lugar a múltiples resultados negativos. La AI y el ML no están diseñadas para tomar decisiones éticas, no existe un algoritmo para la ética. Con la generalización de las tecnologías de IA y ML, a menudo propiedad de grandes empresas tecnológicas con el único objetivo de obtener beneficios, es una necesidad urgente adoptar un enfoque tecnológico centrado en el ser humano y utilizarlo para resolver problemas sociales en lugar de contribuir a ellos.
La educación superior, de adultos y los cursos para jóvenes demandan planes de estudio innovadores que puedan cubrir esta brecha de habilidades y que puedan equipar a los estudiantes con el conocimiento y las habilidades para contribuir a un enfoque más ético del desarrollo tecnológico. Necesitamos que la educación tecnológica sea más humana y está alineada con el Plan de Acción de Educación Digital que incluye acciones específicas para abordar las implicaciones éticas y los desafíos del uso de IA y datos en educación y capacitación.

El proyecto CHARLIE tiene como objetivo desafiar el sesgo en los grandes datos utilizados para la IA y el aprendizaje automático al brindar un mayor nivel de conciencia sobre el impacto negativo de la falta de un enfoque crítico y ético en la actual oferta educativa en TIC. Los objetivos principales de CHARLIE son incrementar la capacidad de las instituciones de educación superior, sus profesores y sus estudiantes para brindar oportunidades de aprendizaje que satisfagan las necesidades de la sociedad y creando sinergias entre las instituciones de educación superior, de adultos y de jóvenes

Las actividades que se propone implementar son:

  • Actividades de desarrollo (matrices de competencias, REA, kits de herramientas, recomendación de políticas)
  • Actividades de implementación (pilotos, consultas con partes interesadas externas, seminarios web)
  • Calidad y evaluación (revisiones por pares, controles de calidad)
  • Comunicación y promoción (webinars, congresos nacionales e internacionales)

Los resultados incluyen:
– Matrices de competencias para los programas de aprendizaje – EQF6 (educación superior), EQF4 (educación de adultos), EQF2 (Jóvenes)
– Curso de sesgo algorítmico (educación superior)
-Kit de herramientas de sesgo algorítmico para sesiones sincrónicas (educación superior)
-Guía para potenciar la capacidad de los administradores/directivos universitarios (educación superior)
-Seminarios web para fomentar el aprendizaje entre pares y discutir el papel de las instituciones de educación superior en informática.