La inteligencia artificial (IA) es una tecnología transformadora que está redefiniendo la manera en que personas, organizaciones y gobiernos abordan desafíos en múltiples sectores. Sin embargo, su diseño e implementación deben realizarse de manera ética para evitar que perpetúe o amplifique desigualdades preexistentes, particularmente en términos de género.

Por ello, resulta crucial establecer estrategias claras que permitan identificar, prevenir y mitigar los sesgos de género en el desarrollo y uso de sistemas de IA.

En este contexto, el CONPES 4080 que establece la Política Pública de Equidad de Género para las Mujeres en Colombia, destaca la equidad de género como un pilar esencial del desarrollo sostenible. Dentro de este marco, el Departamento Nacional de Planeación (DNP) lideró la elaboración de una guía de buenas prácticas para mitigar los sesgos de género en la IA, promoviendo principios éticos y de justicia social (CONPES, 2022).

Con un enfoque integral, la guía aborda todas las etapas del ciclo de vida de la IA, desde la planificación y el diseño hasta el monitoreo y el desmantelamiento, promoviendo sistemas inclusivos. También incorpora un Catálogo de Herramientas y un Árbol de Decisión como recursos prácticos para identificar y mitigar sesgos de género, facilitando su aplicación en diversos contextos.

Público objetivo

  • Equipos de desarrollo de IA
  • Grupos de defensa de género
  • Académicos e investigadores
  • Empresas tecnológicas
  • Reguladores y organismos gubernamentales
  • Personas usuarias finales
  • Medios de comunicación y periodistas tecnológicos

Principales Sesgos en la IA

Tipo de Sesgos Descripción
Sesgo de datos Se presenta cuando los algoritmos se entrenan con datos no representativos, excluyendo las experiencias de mujeres y personas LGBTIQ+, lo cual genera decisiones sesgadas. En el ámbito de la salud, esto afecta diagnósticos y tratamientos al no considerar diferencias fisiológicas entre géneros (Buolamwini & Gebru, 2018). En el ámbito laboral, refuerza la preferencia por perfiles masculinos, perpetuando la exclusión de mujeres y minorías en ciertos roles históricos (O’Neil, 2016).
Sesgo de confirmación Este sesgo ocurre cuando los algoritmos priorizan información que refuerza estereotipos preexistentes, como asociar roles laborales tradicionalmente masculinos a hombres. Esto perpetúa ideas preconcebidas en procesos de contratación y selección de personal (Buolamwini & Gebru, 2018).
Sesgo de interacción La interacción de los sistemas de IA varía según el género, reflejando y reforzando estereotipos tradicionales en las respuestas de asistentes virtuales. Por ejemplo, los sistemas de IA como Alexa y Siri utilizan voces femeninas en roles serviles y voces masculinas en contextos autoritarios, lo cual contribuye a la idea tradicional de género asociada a la autoridad y el servicio (UNESCO, 2024).
Sesgo de uso Las barreras estructurales dificultan el acceso equitativo de mujeres y personas LGBTIQ+ a los sistemas de IA. La falta de acceso a dispositivos tecnológicos y la exclusión en los datos de entrenamiento limitan las oportunidades de estos grupos para beneficiarse plenamente de los avances tecnológicos, lo que amplía las brechas de género existentes (UNESCO, 2024).
Sesgo de retroalimentación Se produce cuando los resultados de un sistema de IA influyen en los datos futuros que procesará el mismo sistema, creando un ciclo que refuerza los sesgos preexistentes. Este ciclo amplifica las desigualdades en áreas como la contratación, donde se perpetúa la exclusión de las mujeres, o en salud, al no tener en cuenta sus necesidades específicas en los tratamientos y diagnósticos (Raji & Buolamwini, 2019).
Sesgo contextual o de aplicación Aparece cuando los sistemas de IA se aplican en contextos diferentes a los previstos, generando discriminación de género al no ajustarse a las necesidades socioculturales específicas de mujeres y personas LGBTIQ+. Los algoritmos que no consideran diversas realidades socioculturales terminan exacerbando desigualdades y limitando la efectividad de los sistemas en diferentes entornos (O’Neil, 2016).