Las sombras y la ética en la aplicación de la inteligencia artificial 

Inteligencia artificial: los riesgos de la caja blanca

Las preocupaciones sobre el uso ético de la inteligencia artificial crecen tan rápido como sus innovaciones y alcances. La popularidad de aplicaciones como ChatGPT nos ha hecho creer que generar imágenes y textos como por arte de magia no tiene ninguna consecuencia.

Tiempo de lectura: 5 minutos

Hace tres años, en diciembre de 2020, la científica de datos Timnit Gebru anunció su repentina salida del equipo de inteligencia artificial ética en Google. Egresada de la Universidad de Stanford, Gebru se ha distinguido por su investigación en torno a los impactos diferenciados de las tecnologías de reconocimiento facial en las personas de color, y su labor en favor de la diversidad en el sector informático. Pero esa mañana de invierno, nada de eso importó. O quizá importó demasiado.

¿Qué es la inteligencia artificial? El imaginario colectivo está repleto de fantasías hollywoodenses de entidades no humanas autoconscientes; algunas serviles, otras con ánimos destructores. La percepción generalizada se encuentra cruzada por el pensamiento mágico, impulsado a menudo por las propias empresas que desarrollan estos sistemas. La inteligencia artificial funciona como una caja negra: un fascinante artefacto que entrega resultados maravillosos, sin mayor esfuerzo aparente que presionar un botón o teclear un par de palabras: fotografías sin autor, textos a la medida. La vida más cómoda, más fácil, más automática.

En su sentido más llano, la inteligencia artificial es un sistema que es entrenado, a partir de un cierto conjunto de datos, para hacer predicciones, dar recomendaciones, generar contenidos, tomar decisiones. Este entrenamiento consiste en la ingesta de miles de millones de datos que, no con poca frecuencia, reproducen los mismos sesgos de las sociedades que los producen, o son extraídos sin el consentimiento de las personas.

La precisión de una inteligencia artificial depende de la calidad de los conjuntos de datos con los que fue entrenada. Si una inteligencia artificial se alimenta de contenidos racistas, por ejemplo, sus resultados reproducirán los mismos estereotipos. La industria ha optado por una salida rentable: usar conjuntos de datos más grandes para reducir proporcionalmente los datos “problemáticos”; una premisa que un grupo de asociados de la Fundación Mozilla se ha encargado de desmentir.

Días antes de su despido, Gebru informó a Google acerca de un sinnúmero de problemas que acarreaban los modelos lingüísticos de gran volumen: sistemas de inteligencia artificial que se alimentan de cantidades inconmensurables de texto. Estos modelos son los que permiten, por ejemplo, hacer tareas de traducción automática o escribir artículos como este por arte de magia.

En su investigación, la científica de datos le explicó a Google que su modelo lingüístico sería incapaz de comprender las cuestiones subyacentes del lenguaje. Es decir, podría aprender a manipular las palabras, pero no entendería el contexto sociocultural en el que son usadas, especialmente el de las personas que viven en países con limitado acceso a Internet, y por tanto, cuya huella lingüística en los conjuntos de datos es menor. El resultado sería una inteligencia artificial que refleja las prácticas del habla de las sociedades occidentales más ricas y dominantes del Norte global. Una caja blanca.

Algorithm Watch, una organización de la sociedad civil que investiga el impacto de los algoritmos en la vida democrática, estima que, hasta abril de 2020, había al menos 167 guías de implementación ética de la inteligencia artificial. Esto sin contar los álgidos debates que ocurren actualmente en la Unión Europea, donde el Parlamento Europeo busca aprobar una ley que regule el despliegue de la inteligencia artificial en sus fronteras

El mundo ha buscado ajustarse a las disrupciones de la inteligencia artificial como si las afectaciones cotidianas fuesen el inevitable precio de la innovación tecnológica. Su ritmo de adopción corre implacable pese a los impactos sociales, bajo el manto inescrutable de sus algoritmos y sin cuestionar las asimetrías de poder que los sostienen. Un poder que, además, ha incrementado las capacidades de vigilancia, opresión y desinformación en contra de las poblaciones en mayor situación de vulnerabilidad. 

Detrás del telón de las máquinas se desvanece la ilusión. La infraestructura que sostiene a la inteligencia artificial, por ejemplo, tiene consecuencias devastadoras para el medio ambiente. Una investigación de la Universidad de Massachusetts calculó que el entrenamiento de estos modelos puede generar hasta 626 mil libras (cerca de 283.9 toneladas) de dióxido de carbono, equivalente a 300 vuelos redondos entre Nueva York y San Francisco. Para 2040, se estima que las emisiones de la industria informática alcancen el 14% de las emisiones globales; la mayoría, provenientes de centros de datos. 

Pero el impacto ambiental no debe ser la única preocupación sobre el avance rampante de la inteligencia artificial. Lejos del futuro libre de esfuerzo que vende la automatización, estos sistemas dependen de la precarización humana para existir. Esto implica mano de obra anónima que debe limpiar, etiquetar, clasificar millones de datos de forma mecánica, con salarios que no alcanzan ni un dólar por hora de trabajo. En algunos países, como Finlandia, incluso se ha experimentado con utilizar a personas privadas de la libertad que pasan horas frente a un monitor, haciendo clic tras clic.

La irrupción de la inteligencia artificial en la vida cotidiana está causando cismas por doquier. La llegada de Chat-GPT, un software capaz de generar textos como respuesta a una serie de instrucciones proporcionadas, apenas en noviembre de 2022, ha supuesto una alerta máxima para los oficiantes de la escritura y la comunidad académica, rebasada ya por la pesadilla del plagio. A estas voces agoreras se han sumado otras industrias creativas, incluyendo la reciente huelga de actores y guionistas en Hollywood, que presienten la inminente sustitución de la obra de arte en la nueva era de la reproductibilidad técnica. 

Te recomendamos el reportaje: «El furor de OnlyFans: el hedonismo en el fin del mundo«.

El mundo ha buscado ajustarse a las disrupciones de la inteligencia artificial como si las afectaciones cotidianas fuesen el inevitable precio de la innovación tecnológica.

El mundo ha buscado ajustarse a las disrupciones de la inteligencia artificial como si las afectaciones cotidianas fuesen el inevitable precio de la innovación tecnológica.

El 17 de noviembre de 2023, Sam Altman anunció su repentina salida al frente de OpenAI, el centro de investigación y desarrollo de inteligencia artificial responsable, entre otros, de Chat-GPT. La tensión entre el Consejo Directivo de OpenAI y su director surgió entre el interés de Altman por mantener la expansión de la compañía y el de la mesa directiva por balancear el crecimiento con la seguridad para prevenir riesgos a la integridad humana, como incursionar en las aplicaciones de la IA en el uso armamentístico.

Desertor de la carrera en informática en Stanford, Altman se ha distinguido por su gestión al frente de fondos de inversión de start-ups tecnológicas. Otro de sus proyectos, Worldcoin, ofrecía criptomonedas a personas de países en vías de desarrollo a cambio de capturar sus datos biométricos para una identificación única. Poco duró el experimento, toda vez que su emprendimiento se enfrentó con la regulación de protección de datos personales en diferentes países y se vio forzado a suspender actividades. Quienes confiaron y le entregaron sus huellas e iris quedaron con un palmo de narices.

Antes de su despido, Altman había tenido un altercado ligero con una de las integrantes del consejo: Helen Toner, directora de estrategia del Centro de Seguridad y Tecnologías Emergentes de Georgetown (CSET). Altman le reclamó a Toner por una investigación del CSET que ella coescribió, donde criticó los esfuerzos de OpenAI por mantener la seguridad de sus productos, mientras elogiaba a la competencia. 

A la salida de Altman siguió un rápido anuncio de su incorporación como empleado de Microsoft, lo que desató que 800 empleados de OpenAI amagaran con seguirlo. La revuelta intestina en el Consejo se resolvió cuando, cinco días después del despido, la junta de OpenAI decidió recontratar a su director, junto con la discreta salida de dos integrantes, ambas mujeres: Helen Toner y la experta en robótica Tesha McCauley.

Acaso lo más revelador es que los asientos vacíos de OpenAI han sido cubiertos por tres hombres caucásicos, vinculados a la visión de negocios más purista del Silicon Valley —innovación antes que precaución—: Bret Taylor, expresidente de la junta directiva de Twitter; Adam D’Angelo, director ejecutivo de Quora; y Larry Summers, exsecretario de Economía de Estados Unidos, además de incluir a Microsoft como integrante sin voto de la junta.

La reconfiguración del liderazgo de OpenAI, compuesto enteramente por varones, manda un mensaje claro en una industria con obvias deficiencias en términos de diversidad. De acuerdo al Fondo Económico Mundial, en 2020 apenas 26 por ciento de los puestos laborales relacionados con inteligencia artificial eran ocupados por mujeres. Mientras organizaciones como Black in AI están intentando abordar el problema de la amplificación de la discriminación racial en las decisiones algorítmicas, los gigantes de la inteligencia artificial siguen siendo espacios hostiles para la interseccionalidad.

La caja repite lo que la caja consume. 


PEPE FLORES. Es activista por los derechos humanos, promotor de la cultura libre. Presidente en Wikimedia México y Director de comunicación en la organización R3D. Maestro en Comunicación y Medios Digitales por la UDLAP. Escribe e investiga sobre privacidad, vigilancia, libertad de expresión, seguridad digital y cultura libre.


También te puede interesar el documental «Cuando el agua regrese: El rescate de Cuatro Ciénegas»:

COMPARTE
Lo más leído en Gatopardo
  • Recomendaciones Gatopardo

    Más historias que podrían interesarte.