#16 🤖IA y justicia en la acción social: Entre la promesa y la responsabilidad


La tecnología no es neutral. Reproduce los valores de quienes la diseñan y puede reforzar desigualdades si no la cuestionamos.

Ruha Benjamin, Race After Technology

La Inteligencia Artificial (IA) se ha convertido en una herramienta con gran potencial en la acción social, permitiendo optimizar procesos, detectar necesidades y mejorar la eficiencia de los recursos. Sin embargo, no es una tecnología neutral. Como cualquier sistema, refleja los sesgos de quienes la diseñan y de la sociedad en la que se implementa. Si no se tienen en cuenta estos factores, la IA puede terminar automatizando desigualdades en lugar de corregirlas. 

Ejemplos como el sistema COMPAS en EE.UU., que asignaba mayor riesgo de reincidencia a personas racializadas, o BOSCO en España, que dificultaba el acceso a ayudas a colectivos en exclusión, demuestran cómo un diseño inadecuado puede generar efectos discriminatorios.

A pesar de estos riesgos, la IA no está condenada a perpetuar injusticias. Su impacto depende de las decisiones que tomemos hoy para desarrollarla con un enfoque más equitativo. 

Expertos como Carlos Fenollosa destacan que la IA no es una fuerza autónoma, sino una herramienta en construcción que puede orientarse hacia la justicia social. Para ello, es clave diseñar algoritmos con transparencia, supervisión y criterios inclusivos que garanticen que estas tecnologías sirvan para reducir desigualdades en lugar de reforzarlas.

La IA como aliada, no sustituta

Uno de los errores más comunes es pensar en la IA como un reemplazo del criterio humano en lugar de como un complemento. La justicia social no es solo un problema de eficiencia técnica, sino de comprensión de la fragilidad humana. La IA puede ayudar a detectar patrones invisibles para el ojo humano, pero no puede reemplazar la empatía, la interpretación del contexto ni la toma de decisiones basada en principios éticos.

Por ejemplo, en el ámbito educativo, si la IA se usa sin supervisión, puede reforzar desigualdades al favorecer a estudiantes con mejores antecedentes académicos. Pero si se aplica con un enfoque inclusivo, puede personalizar el aprendizaje y brindar oportunidades a quienes el sistema tradicional deja atrás. Lo mismo ocurre en la acción social: si se diseña de manera ética, la IA puede ayudar a identificar necesidades antes de que se conviertan en emergencias, mejorar la asignación de recursos y proporcionar apoyo personalizado a colectivos vulnerables.

El uso de IA como ChatGPT no es solo una cuestión ética, sino también un desafío técnico que requiere comprensión y responsabilidad.

No se trata solo de si los algoritmos pueden tomar decisiones justas, sino de cómo las personas interactúan con ellos. La forma en que formulamos preguntas y seleccionamos respuestas influye en los sesgos que perpetuamos o corregimos. Un mal uso de la IA—por ejemplo, aceptar sin cuestionar sus respuestas o hacer preguntas que refuercen prejuicios—puede llevarnos a resultados discriminatorios o erróneos. Por eso, aprender a preguntar bien no es solo una habilidad técnica, sino también una responsabilidad ética.

Construyendo una cultura de IA responsable

Para que la IA sea realmente una aliada de la acción social, se requiere una estrategia deliberada basada en tres pilares fundamentales:

Diseño diverso e inclusivo: Los equipos que crean estos sistemas deben incluir a personas con experiencia en inclusión social, no solo a programadores.

Supervisión humana constante: La IA no puede tomar decisiones finales en procesos que afecten vidas humanas sin revisión y corrección humana.

Educación y formación: Para que la IA se use bien, las personas que trabajan en acción social deben entender sus límites y posibilidades.

Como concluye Fenollosa en La Singularidad, el futuro de la IA no está escrito. La pregunta clave no es si la IA puede ser justa, sino si la sociedad está dispuesta a hacer lo necesario para que así sea. La tecnología es un reflejo de lo que somos y de lo que queremos ser como sociedad. Aprovechar la oportunidad de diseñarla con conciencia es una responsabilidad ineludible.

¿Qué pasos pueden darse hoy para asegurar que la IA se convierta en una verdadera aliada en la acción social?

Una de las claves está en aprender a interactuar con ella de manera consciente. La forma en que formulamos preguntas y usamos sus respuestas no solo afecta la calidad de la información que obtenemos, sino que también influye en la ética de su aplicación. Comprender cómo preguntar a la IA es un primer paso esencial para garantizar que sus usos sean justos e inclusivos.

Compartir

S013 Asamblea de Cooperación por la Paz, Jose M. Ruibérriz de Torres López 10 de marzo de 2025
Compartir