WWW.CIENCIASALUD.COM.MX

ciencia y salud, noticias de medicina, bienestar y salud

filantropia ok 3
Economía

FILANTROPÍA/ Pecados inconfesados de la IA

Por Felipe Vega, presidente de la Fundación CECANI Latam, encargada de la capacitación de asociaciones civiles y otras figuras no filantrópicas

La inteligencia artificial irrumpe en múltiples sectores con la promesa de ofrecer soluciones eficientes, personalizadas y escalables.

Sin embargo, a medida que se vuelve una herramienta esencial para la toma de decisiones en áreas como la salud, empleo, finanzas o seguridad pública, también surgen riesgos asociados a su desarrollo y uso. Uno de los más preocupantes es la reproducción y amplificación de los prejuicios sociales que sus diseñadores, en su mayoría hombres blancos, incorporan, muchas veces sin darse cuenta.

Este fenómeno, conocido como sesgos en la IA, está íntimamente ligado a la falta de diversidad en la industria tecnológica.

Según la UNESCO, las mujeres representan apenas el 26 % de la fuerza laboral en IA, mientras que los grupos étnicos como los afrodescendientes o los hispanos están significativamente subrepresentados. En consecuencia, las herramientas que crean no reflejan la pluralidad de experiencias y necesidades de la sociedad, perpetuando estructuras de desigualdad.

Los sesgos en la IA no son una falla menor del sistema; tienen consecuencias profundas.

Los sesgos en la inteligencia artificial no son simples fallos técnicos: pueden convertirse en espejos distorsionados de nuestras sociedades, amplificar desigualdades en lugar de desmantelarlas. Estas son algunas consecuencias:

Reproducción de desigualdades históricas. Si una IA fue entrenada con datos que reflejan discriminación de género, raza o clase, puede perpetuar esas injusticias. Esto afecta desde recomendaciones culturales hasta decisiones legales o crediticias, reproduciendo estructuras de poder excluyentes.

Difuminación de narrativas alternativas. Las voces que históricamente fueron marginadas pueden quedar fuera de los algoritmos e invisibilizar su riqueza. En el arte, por ejemplo, se puede priorizar la estética dominante y relegar expresiones circulares, indígenas o disidentes.

READ  Avance: Inversión en activos fijos de China aumenta 3,7% entre enero y mayo

Decisiones automatizadas injustas. En sistemas de justicia, salud o seguridad, un algoritmo sesgado puede influir en decisiones que afectan vidas directamente. Esto genera una falsa neutralidad como decisiones aparentemente objetivas que en realidad replican prejuicios humanos.

Pérdida de resiliencia narrativa. Si las herramientas que usamos para contar historias están sesgadas, también lo estará la forma en que construimos identidad y futuro. El pensamiento crítico y la resistencia intelectual se vuelve más difícil de ejercer.

Estos sesgos no son inevitables, pero requieren vigilancia ética, visión curatorial y responsabilidad compartida.

DEJAR UNA RESPUESTA

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

three × five =