Inteligencia Artificial Feminista

La inteligencia artificial está creada por personas y debe ser creada PARA las personas

Cada vez se habla más sobre inteligencia artificial, los beneficios de su aplicación en la industria, el impacto económico asociado a ella y su importancia en la transformación digital. También se plantea cómo la inteligencia artificial toma decisiones que impactan en la vida de las personas. Por ejemplo, saber si somos o no propensos a morir por COVID, determinar si somos o no aptas para un crédito bancario o definir qué tipos de productos nos recomiendan las páginas de venta online.

La inteligencia artificial, cada vez más presente en el debate social

También hay discusiones sobre si la tecnología y una digitalización tan acelerada están evolucionando de forma correcta, o si nos estamos dejando muchas cosas por el camino.
Los periodistas científicos cuestionan esa producción acelerada de Inteligencia Artificial con una mirada crítica y desde una perspectiva más social. Poco a poco, las personas que no estaban familiarizadas con el tema comienzan a normalizar el debate y los cuestionamientos sobre si la inteligencia artificial deshumaniza la vida o si ataca a la humanidad vulnerando nuestros derechos universales.

Los periodistas científicos cuestionan esa producción acelerada de Inteligencia Artificial con una mirada crítica y desde una perspectiva más social. Poco a poco, las personas que no estaban familiarizadas con el tema comienzan a normalizar el debate y los cuestionamientos sobre si la inteligencia artificial deshumaniza la vida o si ataca a la humanidad vulnerando nuestros derechos universales.

La IA no es ni tan inteligente ni tan artificial

Para empezar, quiero dejar claros los tres elementos básicos que componen la IA:

  1. Un problema que hay que resolver.
  2. Unos datos que podemos analizar y utilizar para entrenar un sistema “inteligente”.
  3. La creación del sistema “inteligente” que resuelve el problema.

Vamos con el detalle y la problemática de cada uno de ellos:

La descripción del problema

Para arrancar nos hacemos preguntas como ¿ese problema quién lo tiene? ¿Esa resolución a quién va dirigida?

El problema surge de una necesidad concreta de alguien. Puede ser, por ejemplo, que un banco necesite optimizar un proceso de evaluación de riesgo crediticio, que un hospital quiera mejorar su sistema de atención al paciente para evaluar una enfermedad mediante preguntas que hace un chatbot, o que una empresa petrolera necesite detectar fugas en un sistema de tuberías.

A veces la resolución del problema implica el uso del sistema por personas que interactuarán con él, ya sea pidiendo un crédito o describiendo sus síntomas al chatbot. Otras veces se generará una acción. Por ejemplo, en el caso de que una tubería se rompa y un equipo de mantenimiento tenga que desplazarse al sitio para repararla. En definitiva, no es lo mismo si hablamos de un crédito, de una enfermedad o de un problema técnico en la industria.

Los datos para analizar y entrenar un sistema “inteligente”

En este punto es relevante determinar si los datos son representativos para el problema en cuestión y evaluar si no existen sesgos que puedan afectar el funcionamiento del sistema o sus resultados.

Por ejemplo, si el día de hoy utilizáramos un set de datos de hace 200 años, cuando las mujeres no teníamos derecho a un crédito bancario, el sistema por defecto no nos otorgaría un crédito, ya que determinaría que el sexo “mujer” no es apto para recibirlo.

Es un ejemplo bastante extremo, porque evidentemente no vamos a utilizar unos datos de hace 200 años para entrenar un sistema inteligente en la actualidad. Sin embargo, es relevante evaluar si los datos de hoy son representativos y no están sesgados para resolver los créditos del futuro. Aquí no solo hablamos de si una mujer es apta para recibir un crédito, si no de otros aspectos como el monto del crédito, los plazos, o las penalizaciones por falta de pago.

Es necesario hacernos las preguntas correctas. ¿Los datos de hoy nos muestran la realidad de todas las mujeres? ¿Las mujeres tenemos los mismos ingresos (estadísticamente hablando) que los hombres para acceder a los mismos montos? Si hablamos concretamente de créditos estudiantiles, ¿las mujeres de clases sociales menos favorecidas tienen las mismas oportunidades que las mujeres de clases sociales más acomodadas, en cuanto al acceso a un empleo que les permitirá pagar esos créditos? ¿Pagarán igualmente una mujer migrante con papeles que una mujer migrante sin papeles?

Programación del sistema “inteligente”

En este punto intervienen programadores/as, analistas, data scientist o ingenieros/as de datos. Son las personas que entrenan los sistemas y dan por válida la resolución del problema. Cuando esto sucede, ¿se están preguntando si el sistema está exento de sesgos? ¿Revisan que el sistema creado y listo para resolver un problema lo haga igual para todas las personas? ¿Se aseguran de que es un sistema ético que no generará más desigualdades en el mundo?

Necesitamos metodologías para garantizar que los sistemas son igualitarios y libres de sesgos

Podemos deducir que dentro de toda la cadena de producción de inteligencia artificial existen riesgos que hay que tener en cuenta, tanto en el enfoque del problema, como en los datos que se utilizan para resolverlo y en la creación del propio sistema.

Las personas que crean estos sistemas no están libres de sesgos sociales y probablemente no lleguen a hacerse las preguntas correctas. Como humanos que somos, quienes creamos IA nos podemos equivocar o podemos actuar en base a prejuicios. Estas decisiones y errores tienen mucho peso, puesto que es nuestra responsabilidad resolver el problema para la gente que usará los sistemas o para las personas que estarán expuestas a ellos.

Es necesario, por tanto, incorporar metodologías de trabajo que aseguren que los sistemas son igualitarios y no contienen sesgos. En definitiva, debemos promover que, en la generación de sistemas de inteligencia artificial:

En definitiva, debemos promover que, en la generación de sistemas de inteligencia artificial:

  • Haya una serie de compromisos que garanticen a las personas el correcto uso de su información y sus datos.
  • Se creen sistemas que no discriminen por género, clase social, etnia, orientación sexual y otras categorías sociales.
  • El resultado sea una IA que no sirva como herramienta para oprimir a los grupos sociales menos favorecidos y más discriminados.

En esta tarea, las mujeres profesionales que intervenimos en la creación de IA tenemos mucho que aportar. Desde FemismIA quiero articular esas inquietudes que seguro que compartimos muchas de nosotras. Entre todas podemos sentar las bases de un trabajo práctico, con un enfoque global y el punto de vista del feminismo interseccional. Si quieres hablar sobre ello, escríbeme o deja un comentario, me encantará debatir contigo.

Comparte esta entrada

Share on facebook
Share on linkedin
Share on twitter
Share on email

2 comentarios en «La inteligencia artificial está creada por personas y debe ser creada PARA las personas»

  1. Brava!!!! Excelente iniciativa!
    No es equidad que las figuras femeninas reconocidas en la IA sean principalmente Siri y Alexa, cuya valía parece limitada sólo a ejecutar órdenes.

    Responder

Responder a Cynthia Aguirre Cancelar la respuesta

Entradas relacionadas