La Inteligencia Artificial no crea sesgos, los replica. Esa fue la advertencia central de Manuel Pliego, Government Affairs Director en Microsoft México, durante su participación en el Innovation Day. Frente al avance acelerado de estas tecnologías, Manuel, hizo un llamado a la importancia de construir sistemas que integren principios éticos desde su diseño.
De acuerdo con la Declaración de la OCDE sobre IA (2019), los sistemas automatizados deben ser justos, transparentes y seguros, especialmente cuando impactan derechos fundamentales como la libertad, la privacidad o la igualdad de oportunidades. Cuando estas condiciones no se cumplen, los algoritmos no corrigen desigualdades: las refuerzan.
La IA es un reflejo de nuestra sociedad
Manuel explicó que los sesgos ya existen en los datos que usamos. “¿Los sesgos se inventan con IA? ¿Se crean con IA? No. Los sesgos ya existen en la sociedad. ¿Qué hace la IA cuando está mal diseñada? Los replica”.
Ilustró este fenómeno con un ejemplo en Estados Unidos, donde un sistema automatizado liberaba presos de forma anticipada. Como se alimentaba de estadísticas históricas de criminalidad, el resultado fue que priorizaba la liberación de personas blancas, ignorando el sesgo racial contenido en los datos.
“Es un espejo, como el Black Mirror, la serie de Netflix. Un espejo que nos refleja que está ahí y que está mejor nosotros”, afirmó.
Además, advirtió sobre el riesgo de operar con algoritmos sin trazabilidad. “Si no sabes cómo se están tomando las decisiones, tenemos un problema. Si no eres capaz de explicarlo, tenemos un problema”.
Microsoft y el camino hacia una IA responsable
Manuel compartió que Microsoft ha recorrido una larga ruta hacia la construcción de una IA ética, basada en principios como equidad, inclusión, privacidad, transparencia y rendición de cuentas. Desde 2016, la empresa ha impulsado múltiples iniciativas, como la creación del Comité Éter, la Oficina de IA Responsable, y estándares como el Responsible AI Standard v2.
Este enfoque no solo incluye la gobernanza interna, sino también la participación activa en acuerdos multilaterales como la Declaración de Bletchley (2023) y la resolución de la Asamblea General de las Naciones Unidas sobre inteligencia artificial (2024).
Urge regular los usos indebidos de la IA
Durante su participación, Manuel alertó sobre los dilemas éticos más apremiantes. Entre ellos, destacó la vigilancia masiva en tiempo real mediante reconocimiento facial por parte de los Estados. “Lo único que provoca es el Big Brother de la novela 1984 de George Orwell... te cortan tu libertad democrática”.
También se refirió a decisiones automatizadas que priorizan criterios cuestionables. Recordó el caso de una película donde un robot salva a un adulto y no a una niña. “¿Qué tomó en cuenta? Que tal si tomó en cuenta cosas como ‘es que era hombre’, o peor, ‘era económicamente productivo’. Entonces ahí sí ya no estamos actuando bien como una sociedad”.
