7.5 C
Chihuahua
miércoles, abril 8, 2026

Un juego digital enseña a los jóvenes a cuestionar la ética de la inteligencia artificial

0
0

Lo que parecía algo propio de la ciencia ficción, hoy en día es una realidad y ya vemos como la inteligencia artificial (IA) nos acompaña en las tareas más diversas. Los algoritmos deciden qué música escuchamos, qué vídeos nos aparecen en las redes sociales e incluso quién puede conseguir un trabajo o un préstamo en el banco. Pero ante esta realidad surge una duda sobre la objetividad de estos sistemas. ¿Son realmente neutrales o pueden tener prejuicios y cometer injusticias?

Para responder a estas preguntas ha nacido Ética en Juego, un proyecto educativo pionero impulsado por el EduTech Clúster y financiado por el Plan de Recuperación, Transformación y Resiliencia (PRTR) de la Unión Europea – Next Generation EU, con el apoyo de la Generalitat de Catalunya, Departamento de Empresa y Trabajo. Este proyecto tiene como objetivo que los estudiantes aprendan a ser críticos y a cuestionar la tecnología que usan.

A lo largo de varios meses, estudiantes, docentes y profesionales del sector tecnológico han participado en esta competición digital donde han observado cómo funciona la inteligencia artificial para entender cómo nuestras decisiones humanas afectan a las máquinas.

El mito de la neutralidad tecnológica
A menudo pensamos que, como la IA se basa en datos y matemáticas, sus respuestas son siempre correctas y neutrales. Pero la realidad es muy distinta. Una IA aprende de lo que nosotros le enseñamos, y si los datos que recibe contienen sesgos (prejuicios de género, de raza o de clase), la máquina los acabará repitiendo y amplificando.

Por eso resulta tan importante desarrollar un pensamiento crítico que nos permita ser conscientes de las consecuencias sociales tiene aquello que programamos. Esto es lo que propone el proyecto Ética en juego.

En lugar de leer manuales teóricos, los participantes en esta iniciativa han podido aprender “haciendo”. Mediante una plataforma digital interactiva, se han enfrentado a tres grandes retos que simulan situaciones del mundo real donde la IA tiene un papel clave.

El primer reto se ha centrado en la justicia y la equidad. Los alumnos han tenido que construir modelos que predicen resultados, pero pronto han visto que un sistema puede ser muy preciso matemáticamente pero, al mismo tiempo, muy injusto si discrimina a ciertos colectivos.

El segundo reto pone el foco en la sostenibilidad. Crear y entrenar grandes modelos de IA consume cantidades enormes de energía y agua. Aquí, los jugadores han tenidor que encontrar el equilibrio entre tener una tecnología potente y ser responsables con el medio ambiente y la sociedad.

Finalmente, el tercer reto ha tratado la transparencia. ¿Quién es el responsable cuando un algoritmo se equivoca? ¿Cómo podemos explicar una decisión que ha tomado una máquina? Este ejercicio enseña que los humanos debemos mantener siempre el control y la supervisión de lo que hacen los sistemas inteligentes.

Una brújula moral
Una de las novedades de esta experiencia es que no ganaba quien creaba el algoritmo más rápido o potente, sino quien conseguía un mejor equilibrio ético. El sistema utiliza lo que denominan una “brújula moral”.

Este método de puntuación valora diferentes dimensiones, como la precisión técnica, la igualdad y la sostenibilidad. Si un participante creaba una solución muy eficiente pero que era injusta, el sistema lo penalizaba. De este modo, el éxito ya no se define solo por “funcionar”, sino por “funcionar bien para todos”.

Tecnología accesible para todo el mundo
Para participar en este proyecto no hacía falta ser un experto en informática ni saber código complicado. Se han creado más de 30 aplicaciones muy intuitivas, con botones, barras deslizantes y menús sencillos, para que cualquier persona pueda interactuar con la IA.

De esta manera, perfiles muy diversos han podido opinar sobre el futuro de la tecnología. En un mundo donde los algoritmos cada vez tienen más peso, es vital que toda la ciudadanía, y especialmente los jóvenes, tengan las herramientas para entender y auditar estas “cajas negras”.

Ética en Juego demuestra que la mejor manera de entender la tecnología es experimentar con ella, equivocarse y reflexionar sobre los errores. El proyecto ha formado futuros profesionales del sector tecnológico, pero también ha formado a ciudadanos informados que no se dejarán engañar por una pantalla.

Vale la pena recordar que la inteligencia artificial es una herramienta creada por humanos y, como tal, debe reflejar valores como la transparencia, la equidad y el respeto por el planeta.