Presenta:

Las mujeres representan solo el 25% de la fuerza laboral en ciberseguridad

A pesar de los avances en tecnología, las estadísticas demuestran que las mujeres aún no perciben el progreso tecnológico que mejore sus vidas.

La inteligencia artificial la percibimos como neutral, pero está construida por nosotros y entrenada simulando un comportamiento humano.

La inteligencia artificial la percibimos como neutral, pero está construida por nosotros y entrenada simulando un comportamiento humano.

Archivo MDZ

La revolución digital cambió las reglas del mundo laboral tal y como se conocían. Pero otras, como la barrera que se les impone a las mujeres a la hora de profesionalizarse en ciertas áreas como ciencia y tecnología, especialmente en ciberseguridad permanecen casi intactas.

En la jornada del jueves de F5 AppWorld Revolution Latam, evento que reunió a más de más de 500 profesionales de TI y ciberseguridad de 10 países de la región –incluyendo Argentina-, se realizó una charla sobre tecnología y perspectiva de género a cargo de Womcy, organización sin fines de lucro dedicada a la profesionalización y el acompañamiento de mujeres en ciberseguridad. Se destacó la urgencia de cerrar la brecha existente y evitar el sesgo en el desarrollo de la Inteligencia Artificial (IA). Además, su representación en áreas como ciberseguridad sigue siendo el 25% de la fuerza laboral.

La iniciativa se focaliza en mujeres universitarias

Para demostrar que una carrera en ciberseguridad no solo es posible, sino que es una opción viable y con gran demanda en el mercado. Este programa es parte de los tres pilares de la ONG (profesionalización, mentoría y educación), que busca enfrentar la creciente escasez de profesionales femeninas en el sector.

  • Los sesgos de género: Un problema sociotecnológico

La discusión central también incluyó el sesgo de género en la Inteligencia Artificial, un problema que no solo reside en el resultado final, sino que se incorpora desde la concepción, el diseño y la carga de datos de los algoritmos. Se enfatizó que, aunque los algoritmos son líneas de instrucciones, los sesgos humanos se transfieren a través de la calidad de los datos de entrenamiento y las decisiones de diseño.

tecnologia.jpg
La discusión central también incluyó el sesgo de género en la Inteligencia Artificial.

La discusión central también incluyó el sesgo de género en la Inteligencia Artificial.

Esto no es un problema únicamente tecnológico, es sociotecnológico

El poder identificar un sesgo requiere totalmente de personas que puedan entender cómo estamos funcionando como sociedad, porque los datos que utilizamos el día de hoy no fueron hechos ayer sino hace 10 o 20 años. Un ejemplo de cómo la tecnología sigue perpetuando desigualdades estructurales fue el caso de un modelo de reclutamiento que penalizaba currículums de mujeres.

La inteligencia artificial la percibimos como neutral, pero está construida por nosotros y entrenada simulando un comportamiento humano. Todo esto arrastra secuelas en su desarrollo. El sesgo no sólo ocurre en la fase inicial, sino que se retroalimenta incluso por la interacción de los usuarios en plataformas online, como se vio en el caso de una IA que "odiaba" a los humanos tras aprender de las interacciones en una red social.

Para combatir estos desafíos, es importante:

  • Diversificar los equipos de desarrollo: es crucial que los equipos sean heterogéneos e incluyan a personas de grupos subrepresentados para identificar y mitigar sesgos.
  • Establecer marcos éticos y transparencia: la creación de algoritmos debe regirse por marcos éticos sólidos y permitir auditorías para garantizar la ausencia de sesgos.
  • Limpieza de datos y conciencia histórica: reconocer que los sesgos actuales a menudo provienen de datos históricos y de deudas sociales es fundamental para una corrección efectiva.

Finalmente, se destacó la importancia de los equipos de trabajo equitativos como parte del plan de cada proyecto tecnológico.

* Fátima Rodríguez Giles, líder del programa Mujeres in Tech WOMCY.