INESEM Business School
Contactar por whatsappWhatsapp

Contacta con nosotros

Teléfono de INESEM 958 050 205
Inteligencia artificial para combatir la desigualdad
Te ayudamos a elegir tu formación

El futuro de la IA está en los algoritmos igualitarios: Inteligencia artificial contra el machismo

Para entender la base de este artículo sobre inteligencia artificial contra el machismo os voy a pedir que hagáis unas cuentas búsquedas en buscadores habituales.

  1. ¿Qué tipo de imágenes aparecen en el buscador si buscamos la palabra CEO?
  2. ¿Y si buscamos CTO?
  3. ¿Y qué ocurre con MÉDICO?
  4. ¿Y con BELLEZA?

Supongo que llegáis a una conclusión más o menos común que demuestra que en la actualidad, aún encontramos sesgos de género en los datos que muestran los buscadores.

Pero, ¿qué es un sesgo algorítmico?

Un algoritmo inteligente aprende de los datos que procesa y extrae nuevo conocimiento encaminado a predecir patrones, identificar salidas o clases, en líneas generales.

Cuando este nuevo conocimiento, estos patrones o clases, refleja en cierta forma información que se vincula a los valores o creencias de las personas que están detrás del procesamiento de los datos (recogida, selección, codificación) con los que estos algoritmos aprenden, entonces decimos que se produce un sesgo algorítmico.

Motores de búsqueda, sistemas de recomendación, redes sociales…

cualquier contexto digital en el que se utilicen este tipo de algoritmos es susceptible de reproducir sesgos, y pueden tener repercusión en ámbitos como la privacidad; replicar o agravar sesgos sociales, de género, sexistas, respecto a razas, políticos, etc.; o dirigir influencias culturales, sociales, o institucionales, debido a limitaciones técnicas de su diseño.

Un ejemplo estaría relacionado con la red profesional LinkedIn [1], que, en el año 2016, descubrió un sesgo de género en su motor de búsqueda. Ante la consulta de búsqueda de un nombre de mujer, éste hacía recomendaciones de variaciones masculinas. En el caso contrario, no recomendaba variaciones femeninas en la búsqueda de nombres masculinos. Así para la búsqueda “Andrea” el motor preguntaba por la posibilidad de referirse a “Andrew”.

Otros casos que visibilizan este problema son los recogidos en el trabajo realizado por Sara Mateos Sillero y Clara Gómez Hernández para El libro blanco de la mujer en el ámbito tecnológico. Por un lado, se hace alusión a estudios de la Universidad de Cambridge que revelan que una mujer tiene menos opciones de recibir ofertas de trabajo si están mejor remuneradas; por otro, a los algoritmos de Google, para los que se evidencia que éstos muestran empleos de mayor prestigio y salario a hombres, y no a mujeres; y a otro de los grandes, como es Amazon, que se percató de que sus algoritmos inteligentes para la selección de currículos ante ofertas de empleo, discriminaban a las mujeres.

En el diseño de producto también existe la diferencia entre géneros

El problema de los sesgos no es exclusivo del ámbito de la inteligencia artificial. En el mundo del diseño de productos ha estado y sigue estando presente. Así, encontramos numerosos ejemplos que arrastran “carencias” en la conceptualización, diseño o implementación de los mismos, las cuales pueden llegar a tener repercusiones negativas para un alto porcentaje de personas usuarias finales.

Destaca el caso del diseño de airbags para coches. Hasta el 2011, la ley no exigía a los fabricantes de coches utilizar maniquíes “femeninos” en sus test de seguridad. Por lo general, las pruebas se realizaban con maniquíes con las medidas y estructuras corporales de un hombre.

Esto en cierto modo soportaba la estadística de que las mujeres conductoras fueran un 47% más propensas a resultar gravemente heridas en accidentes de coche, tal y como recoge la periodista Caroline Criado Pérez en su libro La mujer invisible.

En el caso de los algoritmos, podríamos decir que a priori son diseñados con intención objetiva y neutra, sin embargo, una vez que se detecta su capacidad de organizar y guiar en cierta forma las influencias sobre política, las instituciones y el comportamiento en general en la sociedad, la comunidad de sociólogos/as se ha volcado en estudiar el impacto que los resultados no previstos y la posible manipulación de datos pueden originar.

¿Cómo aprenden los algoritmos inteligentes?

¿Por qué que aparecen sesgos si los algoritmos se consideran neutros?

Para entenderlo, primero debemos comprender cómo es el proceso de aprendizaje de las personas, ya que como sabemos, el aprendizaje automático trata de simular dicho proceso.

Aunque la manera en la que los humanos aprenden es compleja, el proceso de aprendizaje es muy eficaz. Durante los primeros años de aprendizaje, para reconocer un objeto e integrarlo en un determinado esquema mental y categoría, necesitamos pocos ejemplos. Además, a partir de estos pocos ejemplos y con información aprendida de experiencias previas somos capaces de imaginar nuevos esquemas o conceptos.

Un ejemplo podría ser cómo integramos el concepto de “bicicleta” en nuestro aprendizaje. Un día observamos un objeto por primera vez en el que, aun siendo nuevo para nosotros, sí identificamos sus partes: 2 ruedas, un manillar, un sillín, pedales. Posteriormente, este objeto aparece de nuevo en un cuento. Luego en una serie de dibujos donde además observamos cómo se mueve y para qué se utiliza. En el parque vemos una niña que tiene ese objeto, y reparamos en lo rápido o lento que puede ir. Un día nos regalan eso que ya tenemos integrado como “bicicleta” y a pesar de no tener pedales, deducimos que podemos dirigirla directamente con nuestros pies sobre el suelo.

Diferencias entre el aprendizaje humano y algorítmico 

Los humanos aprendemos a partir de pocos ejemplos, sin embargo, esto no es lo que sucede con el aprendizaje automático. Un algoritmo requiere de muchos ejemplos, cientos, miles, para poder identificar, organizar o clasificar la información correctamente. La mayoría de algoritmos inteligentes, están diseñados para extraer lo relevante de la información, los patrones significativos. No pueden inferir, ni imaginar, ni inventar algo que previamente no han procesado.

¿Qué aprendería entonces un algoritmo de unos datos en los que un muy alto porcentaje de las veces que procesa el objeto “bicicleta rosa”, ésta se asocia con “niña”?

Efectivamente, el algoritmo estaría aprendiendo y reproduciendo un sesgo de género.

El futuro de la IA pasa por diseñar algoritmos igualitarios

Tal y como refleja el libro blanco de las mujeres en el ámbito tecnológico, existe un importante reto en la configuración de algoritmos inteligentes para que no incorporen ni reproduzcan sesgos de género, ni sesgos en general. En realidad, esto debería llevarse a cabo en todas las acciones consideradas bajo el paraguas de la IA y no solo cuando trabaja en la inteligencia artificial contra el machismo.

Así, para diseñar algoritmos sin sesgos, por un lado, deberían revisarse los procesos de su configuración, causantes de las limitaciones técnicas de su diseño, en los que intervienen las personas, tales como selección, procesado y filtrado de los datos, ajustes en los modelos predictivos, etc.  Por otro lado, se torna necesario introducir mecanismos de control que corrijan sesgos aprendidos, procedentes de contextos no esperados, en un principio, en los que estos algoritmos son utilizados, o de usuarios que no se habían considerado en su diseño inicial.

En este sentido, la IEEE, organización técnica profesional dedicada al avance de la tecnología para la humanidad, anunció en 2017 la aprobación de un estándar (IEEE P7003- Algorithmic Bias Considerations) cuyo objetivo es proporcionar a individuos y empresas las “metodologías certificadas que articulen claramente y en base a la rendición de cuentas cómo los algoritmos delimitan, evalúan e influencian categorías de personas usuarias de los sistemas de Inteligencia Artificial”, tal y como se recoge en El libro blanco de las mujeres en el ámbito tecnológico. En concreto en España, ya existen herramientas orientadas al ámbito empresarial que detectan y evitan sesgos en los sistemas de Inteligencia Artificial.

Queda demostrada la importancia de pulir la calidad del dato para conseguir unos algoritmos más justos e igualitarios. Sin embargo, esta no es la única vía posible para conseguirlo. Apostar por la diversidad de los equipos de trabajo, es una alternativa que va cobrando cada vez más fuerza.

Brecha de género en STEAM

Numerosos estudios confirman que existe una importante brecha de género en profesiones del ámbito STEAM. En concreto, estudios en los que se explora la relación entre la calidad de una empresa y la participación de mujeres en sus equipos ejecutivos, concluyen que las empresas con mujeres en altos puestos de dirección tienen un mayor rendimiento económico, especialmente en ámbitos como la innovación, la tecnología y en particular, la Inteligencia Artificial.

Tal y como hemos comentado anteriormente, los equipos diversos son la llave para la innovación. Equipos diversos para aportar soluciones a una sociedad con problemas diversos.

Categorizado en: Gestión Empresarial

Solicita información de nuestros cursos y masters




    Información básica sobre Protección de Datos. Haz clic aquí

    Acepto el tratamiento de mis datos con la finalidad prevista en la información básica

    ¿Quieres más artículos de Gestión Empresarial ?

    Selecciona la categoría que más te interese

    ¡Descubre los secretos de inesem en nuestro canal de Telegram!

    Artículos más leídos

    Descubre Territorio Inesem

    Disfruta del mejor contenido con los últimos podcast y webinars

    ES EL MOMENTO

    Comienza tu futuro de la mano de INESEM Business School con el programa de

    EXECUTIVE MASTERS

    Únete al selecto grupo de alumnos que han conseguido alcanzar una carrera de éxito en las profesiones más demandadas.

    ÚNETE AL EQUIPO DE REDACCIÓN

    Comparte tu conocimiento con otros profesionales

    Saber más