?Puede prestar cuidados la Inteligencia Artificial?

AutorNurock, Vanessa
CargoMONOGRAFICO

Can AI care?

Sumario. 1. Los sesgos: un problema importante para la IA. 2. La cuestion de los sesgos de genero. 3. ?La inteligencia artificial puede hacerse cargo del cuidado? 3.1. La IA de cuidados. 3.2. Las "maquinas morales". 4. ?Hacia una artificializacion de la etica? 5. Referencias bibliograficas.

Como citar: Nurock, V (2020). ?Puede prestar cuidados la Inteligencia Artificial?, Cuadernos de Relaciones Laborales, 38 (2), 217-229.

La Inteligencia Artificial (IA) se despliega hoy en dia en todos los campos de nuestra vida, desde el mas tecnico al mas prosaico. Su extension es tan amplia que afecta tanto a las tareas consideradas socialmente como las mas "viriles", aquellas que conciernen particularmente a lo military--como lo demuestran, por ejemplo, las ma-quinas de matar--, como a las tareas consideradas como mas "femeninas", particularmente aquellas que tienen que ver con el cuidado o con lo relacional, tal y como lo hacen ver los numerosos usos que se hace en los ambitos de la medicina y de la paramedicina, del hogar, de la comunicacion o, incluso, de la amistad, el amor o el sexo.

Podriamos, por lo tanto, suponer que la IA--que podria definirse groseramente como un conjunto de tecnologias relacionadas con las ciencias de la informacion y de la comunicacion cuyo rasgo comun es la automocion de las funciones intelectuales --no tiene genero, ya que su uso iria desde aquello que consideramos prototipicamente mas "femenino"--el cuidado de las personas vulnerables, por ejemplo--al mas "masculino"--la IA aplicada a maquinaria de guerra, a drones mortiferos o a supersoldados, por ejemplo.

Podria parecer, por tanto, absurdo abordar la IA bajo el prisma del genero. El genero se caracteriza precisamente por comportamientos socialmente construidos (y con frecuencia heredados historicamente) que definen funciones binarias marcadas como femeninas o masculinas inscritas en unas relaciones asimetricas y sujetas a la dinamica del poder. Ahora bien, una de las razones por la que nos fiamos mas de la IA es precisamente porque parece abstraerse de nuestros sesgos humanos demasiado humanos, lo cual quizas le permitiria, al menos a primera vista, abstraerse de los estereotipos de genero. Se atribuye normalmente a la IA, en efecto, el caracter de neutralidad, o incluso de imparcialidad, lo cual constituye, segun algunos, uno de los argumentos incuestionables para su utilizacion.

Este articulo tiene por objeto un analisis filosofico (apoyado en un analisis conceptual) de la IA entendida como un reto social, etico y politico visto desde la perspectiva y de la cuestion del genero. Se interesa por saber si la IA puede preocuparse del otro y de prestarle cuidados, cuestion que abordo formulando la pregunta generica Can AI care?, ?puede prestar cuidados la Inteligencia Artificial?

Intentare mostrar que el genero, y sobre todo la cuestion del cuidado (care), constituye un punto de vista particularmente interesante para captar algunos de los retos de la IA. Mi hipotesis es que la cuestion de los sesgos en general, y de los sesgos de genero en particular, concernientes a la IA debe ser considerada no solo como una cuestion coyuntural, segun suele hacerse, sino tambien y sobre todo estructural, lo cual refuerza la hipotesis formulada por Joy Buolamwini (2) segun la cual, junto a la mirada masculina (male gaze) y la mirada colonial (colonial gaze), puede sugerirse la existencia de una mirada codificada (coded gaze), que estructura el mundo tal y como es remodelado por la IA. Al considerar la cuestion de los sesgos de genero como estructural antes que coyuntural, se puede plantear la cuestion de la atribucion de tareas de cuidado a la IA y mostrar por que la estructura de la IA no entra en una logica de cuidado, tal y como ha sido caracterizada por la etica y la politica del cuidado, sino todo lo contrario.

  1. Los sesgos: un problema importante para la IA

    Desde hace varios anos, los trabajos sobre la cuestion de los sesgos relacionados con la IA, asi como la expresion de sus estudios en la prensa, recordando ciertos escandalos, han cambiado con bastante radicalidad la mirada del gran publico sobre la IA. El alcance y la extension de estos sesgos tienen, en efecto, algo de inquietante: afectan a poblaciones minoritarias en la concepcion interseccional de la IA (Buolamwini y Gebru, 2018): mujeres, personas de color, poblaciones jovenes o personas de cierta edad; por ejemplo, en el software de reconocimiento facial, muy utilizados actualmente por la policia, particularmente en Estados Unidos, es mejor ser un hombre blanco joven que una mujer negra mayor cuando nos interesamos por la IA.

    Estos sesgos afectan, cada vez mas, a todos los sectores en los que interviene la IA: desde la asignacion de recursos de la sanidad, de la justicia, a la educacion o al empleo, y conciernen tanto a sectores que podrian parecer anecdoticos (y no lo son en modo alguno) como las maquinas relacionales (especialmente las asistentes personales) o los vehiculos con sistemas de reconocimiento de voz incorporado. Este punto es esencial ya que, al insertarse en todos los aspectos de nuestra vida, incluso (y !sobre todo!) en aquellos en los que a priori no deberian estar, esos sesgos llegan a insertarse en nuestros modos de pensar (tanto natural como artificial).

    Estos sesgos, con frecuencia categorizados entre el gran publico como "el problema del hombre blanco (3) (treintanero)" y calificados como "mirada codificada (4)" (coded gaze) por Joy Buolamwini, en referencia directa a la "mirada colonial" (colonial gaze) o la "mirada masculina" (male gaze) y que instalan, cada uno en su propio horizonte, una determinada vision del mundo y de sus relaciones de poder en funcion de un eje de dominacion--patriarcal, colonial o algoritmico. Aqui la idea central es que codificar es tener el poder de imponer una cierta vision del mundo y ciertas relaciones de poder. Yo iria aun mas lejos, y sugeriria un problema anadido, planteado por esta mirada codificada, es que pasa por el artefacto de una maquina que no es solo una "maquina de ver" (5), como puede ser el caso en la mirada masculina o colonial, sino tambien una maquina de prescribir. Esta dimension prescriptiva es explicita en algunos casos, como en la asignacion de recursos, en el de la salud o en el sistema judicial, por ejemplo. Durante mucho tiempo se ha pensado que estos sesgos no eran, despues de todo, mas que el espejo de la sociedad que hace la IA. Sin duda es el caso; pero la situacion es probablemente mas compleja, como tendremos ocasion de ver mas abajo.

  2. La cuestion de los sesgos de genero

    Entre esos sesgos, querria centrar mi analisis en este articulo en los sesgos de genero. Para abordar la cuestion del genero en relacion con la IA, se puede recurrir a diferentes angulos de aproximacion. En primer lugar, es util empezar por una mirada historica para interrogarnos sobre la supuesta neutralidad de la IA, que podria--incluso deberia--no tener genero, dado que es generalmente presentada como objetiva.

    Uno de los proyectos que se encuentra en los origenes de la IA es el proyecto ENIAC (Electronic Numerical Integrator And Computer), que comenzo en 1943 con el fin de poner en marcha dos anos mas tarde al primer ordenador Turing completo (es decir, capaz de resolver todos los problemas de calculo), es particularmente revelador de la construccion historica de los sesgos de genero en la IA. En las fotografias que consagran el exito del superordenador ENIAC, vemos ocho hombres blancos en la plenitud de su vida. Y sin embargo, tal y como lo ha hecho ver, entre otros, la sociologa Alison Adam (Adam, 1998), esa foto es particularmente reveladora de la historia del mundo digital en general, y de la de la IA en particular. En efecto, aunque se olvide frecuentemente, los equipos que han participado en el exito de la IA eran, al principio, equipos mixtos. Estos equipos se han "masculinizado" a medida que se desarrollaba la IA.

    Mas exactamente, esa masculinizacion se ha operado a medida que la IA se convertia en un asunto importante, o reconocido como tal--lo cual hacia que no pudiera ser ya tambien un "asunto de mujeres". Tal y como lo cuenta Betty Snyder, que participo en el proyecto ENIAC, se les "olvidaba" llamar a las mujeres cuando se hacian fotos oficiales. Del mismo modo, en los comunicados de prensa, se hacia normalmente referencia de manera vaga a un grupo de expertos citando solo el nombre de algunos hombres (6). La historia de la IA se ha visto asi...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR