#68 Lo que nadie te va a contar de la IA en el Tercer Sector

La tecnología no es buena ni mala; tampoco es neutral.

Melvin Kranzberg


Un estudio reciente con 27 pymes demuestra algo que las organizaciones sociales deberían escuchar: adoptar inteligencia artificial no es un proceso lineal. No hay diagnóstico, piloto, implementación, escala. Hay un bucle. Las cosas se prueban, funcionan a medias, se adaptan, a veces se abandonan y eso no es un fracaso. Es el proceso.

Los investigadores (Amanollahnejad et al., 2026, Information Systems Management) lo llaman desajuste productivo: las fricciones entre lo que la tecnología exige y cómo funciona realmente una organización no son obstáculos, son fuentes de aprendizaje.

Esto es relevante para el tercer sector por razones que van más allá de lo técnico.


La improvisación no es un defecto, es nuestra arquitectura

Las entidades del tercer sector gestionamos proyectos con sistemas que no se hablan entre sí. Contabilidad en un programa, justificaciones en otro, seguimiento de personas beneficiarias en hojas de cálculo, comunicación interna en WhatsApp. Cuando alguien propone "integrar IA", la primera pregunta no es cuál, sino en cuál de nuestros cinco sistemas.

El estudio confirma que esto no es exclusivo del tercer sector: la mayoría de las organizaciones pequeñas funcionan así. Pero en nuestro caso hay un agravante: muchos de esos sistemas fueron financiados por proyectos que ya terminaron. Los mantenemos con alambres porque no hay partida para sustituirlos.

La IA no va a resolver esa fragmentación. Pero puede funcionar encima de ella, si se diseña con honestidad sobre el punto de partida real.

El progreso depende a menudo de una persona

El hallazgo más potente del estudio: el avance digital en organizaciones pequeñas depende casi siempre de una persona concreta. Alguien que impulsa, que traduce entre lo técnico y lo cotidiano, que convence al equipo.

En el sector privado, esa persona suele ser un perfil directivo. En el tercer sector, suele ser alguien cuyo puesto depende de la financiación de un proyecto. Cuando la financiación acaba, el puesto desaparece. Y con él, el conocimiento, la inercia y las ganas.

Los investigadores llaman a esto alineación episódica: avances ligados a personas concretas, seguidos de inercia o retroceso cuando desaparecen. En el tercer sector, los ciclos de financiación producen exactamente esto. No es un accidente: es estructural.

Hay un factor que rara vez se nombra: las organizaciones del tercer sector suelen tener culturas donde predominan perfiles orientados a la estabilidad, al cuidado y al proceso. Son valores fundamentales. Pero los perfiles orientados al impulso y a la influencia (los que empujan proyectos nuevos, los que contagian entusiasmo, los que asumen riesgo) son escasos. Y cuando aparecen, a menudo chocan con la cultura dominante. Esas personas acaban siendo los promotores de la innovación digital, y cuando se van, no hay relevo natural.

La respuesta no es buscar “promotores” más comprometidos. Es institucionalizar el conocimiento: documentar, compartir, crear grupos de aprendizaje internos que sobrevivan a la rotación.

Copiar al sector privado no funciona

El estudio documenta un patrón que vemos constantemente: organizaciones que leen un caso de éxito de una empresa de 500 personas e intentan replicarlo con un equipo de 15. No funciona. Los flujos son distintos, las decisiones se toman de otra manera, la cultura es otra.

En el tercer sector esto se amplifica. Las soluciones de IA disponibles en el mercado están diseñadas para empresas con presupuestos de seis cifras y equipos técnicos dedicados. Cuando una entidad social intenta usar esas mismas herramientas, acaba pagando casi lo mismo por adaptarlas que por construir algo propio.

Además, hay una dimensión que el estudio menciona pero no desarrolla: la toma de decisiones informal, participativa, basada en confianza, es un valor diferencial de nuestras organizaciones. Cuando un algoritmo sustituye esa dinámica, la gente no "se resiste al cambio". Está protegiendo algo que funciona.

Cuatro claves desde la formación

Llevo meses formando a organizaciones del tercer sector en su relación con la IA. Algunas claves que confirma este estudio:

Empezar por el problema, no por la herramienta. La pregunta no es "¿qué IA usamos?" sino "¿qué nos duele?". Una organización que automatiza lo que le quita tiempo para dedicarlo a lo que importa ha hecho más que otra que tiene un chatbot que nadie usa.

Micro-pilotos, no grandes planes. Tres herramientas pequeñas que el equipo prueba mañana valen más que una hoja de ruta a 18 meses. La adaptación ocurre con feedback rápido, no con planificación perfecta.

Distribuir el conocimiento. Si solo una persona sabe cómo funciona la herramienta, la organización tiene un punto de fallo. Grupos de aprendizaje internos, documentación accesible, rotación de roles. No es eficiente, pero es resistente.

La soberanía de los datos no es opcional. Las organizaciones del tercer sector trabajan con personas vulnerables. Los datos de personas beneficiarias no pueden estar en servidores que no controlamos ni en plataformas que los usan para entrenar modelos. Esto no es un detalle técnico. Es una posición ética.

Lo que nadie te va a contar

Nadie te va a contar que la mayoría de proyectos de "transformación digital" en el tercer sector se quedan a medias. Y que eso no es necesariamente malo. El desajuste productivo significa que una adopción parcial, honesta, adaptada a lo que la organización realmente puede sostener, es más valiosa que una implementación completa que depende de una financiación que se acaba o de una persona que se va.

La IA puede ser útil para el tercer sector. Pero solo si dejamos de tratarla como una escalera que hay que subir y empezamos a verla como un proceso que hay que acompañar.

Compartir

S013 Asamblea de Cooperación por la Paz, Jose Ruiberriz 25 de marzo de 2026
Compartir
#67 Cómo conseguimos darle voz a la historia de Adri