Vivo en un infierno digital por culpa de mis propios gustos. Y de los algoritmos.
Regreso al caso de Spotify. Su algoritmo funciona creando perfiles de sus usuarios partiendo de sus cuentas de redes sociales, lo que comparten en ellas, su edad, su geolocalización, pero sobre todo, qué música escuchan y cuánto tiempo la escuchan. El algoritmo hace conexiones entre la música que les gusta a usuarios de perfiles similares (y por “gusta” entiende que la escuchan por más de 30 segundos, la guardan y/o comparten) y les presenta recomendaciones en función de eso. Visto de otra forma: si a Juanita le gusta Bad Bunny y Maluma, y a Pedrito también le gusta Bad Bunny, entonces el algoritmo le recomendará a Pedrito que escuche a Maluma también. El algoritmo genera perfiles de sus usuarios para colocarlos en burbujas de gustos similares. Para cambiar de burbuja, debes indicarle al algoritmo que te gustan otras burbujas.
El problema –además de que el algoritmo no admite la complejidad de querer estar en varias varias burbujas al mismo tiempo– es que debes conocer de antemano qué hay en las otras burbujas para acceder a ellas regularmente. Es decir, tendrías que conocer a los nuevos artistas que no te está presentando el algoritmo para poder cambiarte de burbuja… ¿pero cómo dar con ellos si nos los conoces? Ese es el problema. (Y por cierto, un obstáculo al que se enfrentan los artistas nuevos e independientes. En consecuencia, esto afecta nuestra cultura. Y por supuesto, ya salieron otros algoritmos a su rescate).
De burbujas y datos
El problema de las burbujas musicales es extrapolable al flujo de información en la sociedad, cuyo acceso y curaduría también están regulados por los algoritmos de plataformas como Twitter, Facebook e Instagram, y ya no tanto por los editores de los medios de comunicación.
Según el reporte del Reuters Institute de 2020, en México 70% de las personas consumen sus noticias en Facebook. Así, en vez de que sean editores quienes deciden qué noticias son más importantes, priorizándolas en las primeras planas o primeros minutos de sus programas de TV y radio, son los algoritmos de esta red social los que determinan qué información llega a quién y cómo la priorizan. A las personas con cierta afinidad política les presentará noticias alineadas a esa ideología (que pueden ser fidedignas o fabricadas, por cierto); a las personas cuyo apetito noticioso está en espectáculos o deportes, les presentará más de esas noticias, y de ese modo ya no tienen por qué chutarse las noticias informativas que los editores consideran amargas, pero necesarias.
Los grupos de poder en México saben muy bien cómo explotar el poder de los algoritmos desde hace muchos años, y han sido sumamente creativos. Antes del escándalo de Cambridge Analytica, (aquél que reveló que la campaña de Donald Trump usó datos de 50 millones de usuarios de Facebook para tratar de influir en su comportamiento durante las elecciones de 2016), México fue pionero en el uso de bots para promover mensajes de los candidatos presidenciales en Twitter, durante las elecciones de 2012. Rumbo a 2015 aprendieron cómo usarlos para amedrentar a periodistas y activistas; para las elecciones de 2018 los usaron para diseminar información falsa para tratar de influir en la elección, y hoy en día los siguen usando de formas mucho más elaboradas para acallar a los críticos del gobierno.
Algunos países, como México, han logrado escapar del (mediano) escrutinio de compañías como Facebook, porque, al parecer, las tenemos sin cuidado. Según un memo interno de Facebook que obtuvo Buzzfeed en septiembre, la compañía estaba al tanto del uso indebido de la plataforma de diferentes gobiernos y actores políticos para influenciar tanto elecciones como la opinión pública en países de América Latina y Asia, pero no implementaron medidas para detenerlos.
“Un gerente de Respuesta Estratégica me dijo que la mayor parte del mundo fuera de Occidente era efectivamente el Salvaje Oeste, y que yo era la dictadora de medio tiempo; él quiso decírmelo como un cumplido, pero en realidad era ilustrativo de la inmensa responsabilidad con la que cargaba”, escribió Sophie Zhang en el memo que entregó a Facebook cuando la despidieron. Según su perfil de Linkedin, Zhang trabajó casi tres años en la compañía como “científica de datos para el equipo de Participación Falsa del equipo de Integridad de Sitios de Facebook. Participación Falsa se ocupa de las interacciones en Facebook que no son auténticas; los ejemplos más conocidos son el muy discutido problema de los bots que influyen en las elecciones y cosas por el estilo”.
Según Buzzfeed, Zhang dice que de ella –una persona con un cargo medio– dependía elegir qué casos perseguir, y que estos podían tardar meses en resolverse. El problema, escriben, se debe a que a la compañía le falta voluntad para proteger procesos democráticos en “países más pequeños”.
El caso de Zhang ilustra fácilmente cómo los algoritmos pueden perjudicar a la sociedad. Pero es menos evidente que los algoritmos tienen incorporados desde su concepción sesgos discriminatorios raciales y de género, entre otros, además de las capacidades que tienen las agencias de seguridad, los gobiernos y las propias compañías de usar nuestros datos de forma cuestionable.
Por ejemplo, durante muchos años Tinder funcionó con un algoritmo que clasificaba a sus usuarios dependiendo qué tan atractivos eran. Según cuántos swipes a la derecha recibía cada usuario, la plataforma asignaba un rango de “deseabilidad” a cada uno de ellos para colocarlo en un grupo acorde a su “nivel”. En términos muy básicos, los sietes y los ochos estaban en su propia burbuja sin poder ver en sus decks los perfiles de los guapísimos nueves y dieces que aparecían en una burbuja distinta. La reacción pública fue tan desfavorable que eventualmente Tinder dijo haber cambiado su algoritmo a uno parecido al de Spotify, basado en gustos compartidos.
El caso de Palantir (los nerds sabemos que el nombre viene de la literatura de Tolkien para bautizar unas esferas mágicas que podían verlo todo) recientemente ha estado bajo el escrutinio público: se trata de una compañía de Big Data que maneja bases de datos internacionales que van desde aplicaciones para la Fórmula 1 hasta información para la CIA y vacunas para COVID-19.
Aquí en México, por ejemplo, no tenemos idea de qué hacen con nuestra foto y los datos de nuestra INE quienes manejan el acceso a los edificios de oficinas como las de WeWork, por ejemplo. De hecho, tampoco sabemos por qué la SRE y el SAT nos obligan a darles datos biométricos tan sensibles como nuestro iris para tramitar nuestro pasaporte o darnos de alta como contribuyentes, y mucho menos sabemos qué hacen con ellos ni cómo los protegen. Hay compañías y gobiernos que toman fotos de millones de usuarios de internet (sin su conocimiento) con diferentes fines, desde investigación hasta vigilancia social. Una investigación de The New York Times encontró una base de datos pública con la ubicación de 12 millones de estadounidenses que le permitió a los reporteros en cuestión de minutos monitorear las ubicaciones de artistas de Hollywood famosos, militares, espías y hasta al mismo presidente Trump. Los datos salieron de decenas de apps que no protegen los datos de sus usuarios.
¿Qué hacemos?
Mientras permitamos que sean las propias compañías quienes se autorregulan, en vez de que sean instancias gubernamentales quienes lo hagan, dependeremos de que éstas tengan los incentivos para hacerlo, y la misma lógica aplica al gobierno.
A nivel individual, si empezamos por identificar cómo los algoritmos nos encasillan y nos manipulan, quizás podamos acceder a los contenidos con mayor libertad y cuidar qué datos decidimos compartir con las decenas de apps que instalamos en nuestro teléfono.
Y si decidimos informarnos a través de las plataformas de los medios de comunicación (a través de sus apps, sus redes sociales o sus canales análogos), curadas por editores, en vez de consumir noticias a través de lo que nos arrojan los algoritmos en el feed de las redes sociales, podemos tener más control sobre la información que recibimos. Además, con ese cambio apoyaríamos la supervivencia de los medios, pues Facebook, Twitter y Google se están quedando con los ingresos por publicidad que le corresponderían a los medios.
Otro hábito saludable en redes sociales es seguir a personas con diferentes afinidades a las nuestras, para exponernos a la diversidad en nuestra vida digital. También lo es el ejercer la tolerancia y promover el diálogo constructivo (i.e. no desamigues a aquel contacto de la prepa cuyos comentarios te irritan sobremanera, pero que son pacíficos y buscan el diálogo).
Podemos también ser cuidadosos con los permisos de privacidad que les damos a las apps cuando las instalamos. ¿Realmente necesita tu ubicación para funcionar aquella app que te ayuda a identificar canciones con el micrófono de tu teléfono? ¿Las aplicaciones de entrega de comida necesitan tu ubicación todo el tiempo o solo mientras las usas? ¿Es necesario conectar tu perfil de Facebook con todas las demás aplicaciones solo para evitar recordar una contraseña más? Seamos juiciosos antes de otorgar permisos a cada app para monitorear nuestra vida entera.
Por lo pronto, para salir de mi infierno musical, he optado por adelantarle a las pistas que me sugiere el algoritmo antes de que pasen 30 segundos, así tenga que adelantarle a 20 seguidas. Pero sobre todo, he asumido la estrategia activa de pedirle a otros seres humanos que sean tan amables de compartir sus playlists conmigo. Para bien o para mal, aún no hay algoritmo alguno que reemplace las interacciones humanas para acceder a la diversidad del mundo.