Ahora que de pronto muchos están cayéndose del guindo de que las redes sociales son un experimento de control sociológico, cajas negras y laboratorios humanos en manos de los líderes del turbocapitalismo más atroz y antidemocrático, me gustaría recordar algunas cosas que cualquiera que hubiera prestado atención ya sabía desde hace mucho tiempo.
Para ello, citaré algunas partes de "DeepSeek y por qué el futuro de la IA es el software libre" que explican estas problemáticas.
Acerca de los algoritmos cerrados que por fin algunos empiezan a pensar en auditar:
A diferencia del código abierto, donde el algoritmo es auditable y modificable por la comunidad, los sistemas de Meta o X son cajas negras. Más allá de las filtraciones, no sabemos cómo priorizan el contenido o qué parámetros usan para definir el engagement. Esta opacidad es estratégica, y permite a Meta evadir responsabilidades («el algoritmo lo hizo») mientras oculta prácticas que, de ser públicas, generarían rechazo. Si el código de Facebook fuera abierto, los investigadores podrían identificar sesgos raciales en la moderación de contenido, colectivos afectados propondrían parches éticos, y la ciudadanía entendería cómo se manipula su atención. En cambio, el código cerrado convierte a los usuarios en conejillos de Indias de un experimento del que ignoran las reglas.
Como señaló Shoshana Zuboff en El capitalismo de la vigilancia, el verdadero producto de Meta es el excedente conductual: patrones predictivos extraídos de cada like, cada pausa de tres segundos en un video, cada mensaje no enviado. Google inauguró esta forma de cercamiento basando su modelo de negocio en la publicidad dirigida, por medio de técnicas de extracción y predicción de información. Esta publicidad dirigida nos puede parecer meramente vender zapatillas (¿qué mal puede hacernos algo así, si los anuncios genéricos son mucho más aburridos?), pero si lo analizamos cuidadosamente, realmente se trata de la elaboración de una serie de medios de modificación conductual que buscan conocer y manipular al objetivo. Es decir, estos datos entrenan algoritmos que no solo venden zapatillas, sino que moldean elecciones, estilos de vida y hasta identidades. Con Google esto comenzó a partir del registro de las cadenas de búsqueda junto a detalles laterales como la manera de expresar estas búsquedas, su ortografía, las pautas de cliqueo y otros detalles. Más adelante, con redes sociales como Facebook en las que el usuario reacciona a los diversos contenidos y comparte incluso afiliaciones políticas y religiosas, se dispararon las posibilidades del análisis de las multinacionales acerca de nuestros comportamientos y el desarrollo de métodos para manipularlos. Las posibilidades de manipulación sobre la conducta que facilita esta extracción de datos, como ya demostró Cambridge Analytica, pueden alcanzar incluso a la propia democracia.
También sobre estos algoritmos:
Existen múltiples estudios, análisis y testimonios que han señalado cómo los algoritmos de recomendación y de priorización de contenido en redes sociales tienden a favorecer publicaciones que generan emociones intensas, incluida la ira, debido a que este tipo de reacciones suele traducirse en mayores niveles de interacción. Investigaciones publicadas en revistas científicas (por ejemplo, el estudio de Vosoughi, Roy y Aral, 2018, en Science) han demostrado que, en redes sociales, las noticias falsas y los contenidos con tintes emocionales negativos se difunden más rápidamente que aquellos con contenido veraz o neutro. Esto se atribuye, en parte, a que generan reacciones fuertes (como enojo o indignación) que impulsan el engagement, es decir, que hacen que la gente se involucre e interactúe más. Caer en la trampa, reaccionar y comentar, precisamente es algo que impulsa el contenido al que uno se opone. Diversos reportajes de investigación y análisis independientes han documentado que las plataformas sociales, incluidas las de Meta, miden y utilizan reacciones emocionales (incluyendo el uso del emoji de «enojo») para determinar qué contenido es más «atractivo» para los usuarios. Esto ha llevado a la crítica de que, al priorizar contenido que genera reacciones intensas en los usuarios, se estaría impulsando la difusión de información polarizante o potencialmente dañina, en particular discursos de odio. Algunos ex empleados y expertos en algoritmos han afirmado que la maximización del engagement, lo cual es un objetivo central en el diseño de estos sistemas, puede llevar a que se promocione contenido que, aunque resulte polémico o dañino, incrementa las interacciones y, por tanto, el tiempo de permanencia de los usuarios en la plataforma. En Alemania, el partido de ultraderecha AfD (Alternativa para Alemania) ha dominado repetidamente los rankings de engagement en Facebook. Según un estudio de 2021 del medio Die Zeit, los posts de la AfD recibían hasta 5 veces más interacciones que los de partidos tradicionales, gracias a mensajes provocadores sobre inmigración y a las teorías de la conspiración sobre el «gran reemplazo». Los algoritmos de las redes sociales realmente funcionan bajo el mecanismo de que lo importante es que hablen de ti, incluso si hablan mal de ti. Las reacciones al contenido, aunque sean negativas, son precisamente lo que hace que ese contenido se muestre más a menudo, pues el objetivo número uno de la red social es atrapar la atención de los usuarios durante más tiempo.
Sería también absurdo disculpar a compañías como Meta considerando que no sean plenamente conscientes de todo esto. El crecimiento siempre se pone por encima de la seguridad o incluso de la integridad de los usuarios, como mostaron las filtraciones al Wall Street Journal de Frances Haugen, gestora de productos en el equipo de integridad de Meta, en las que destapó que la compañía era perfectamente consciente a través de investigaciones internas de cómo el uso de las redes sociales estaba afectando a la salud mental de los adolescentes; pero que, a pesar de ello, no se hizo nada al respecto. Así, según los documentos publicados, el 32% de las adolescentes encuestadas habían afirmado que se sentían peor con su cuerpo cuando utilizaban Instagram. Para Frances, «había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook».
Sobre la situación privilegiada de las redes sociales para convertirse en jugadores de primer orden en el mundo de los LLMs:
[...] con el auge de los Grandes Modelos de Lenguaje (LLMs), el interés de Meta sobre los datos de sus usuarios ha dado un giro que quizá pocos esperaban unos años atrás. Los comentarios e interacciones son ahora el alimento de la inteligencia artificial, que necesita enormes cantidades de datos que deben ser cercados y utilizados, a ser posible en exclusiva para evitar así que surja más competencia. Ese fue precisamente el motivo por el cual X (antes Twitter) limitó progresivamente el acceso a su API, que permitía hacer extracción de datos con relativa facilidad: la red social necesitaba apropiarse en exclusiva de los 500 millones de mensajes que los usuarios de la plataforma escriben cada día (según los datos publicados en 2023), que se han vuelto esenciales para entrenar a su IA bautizada como Grok. [...]
En la era de los grandes conjuntos de datos, las redes sociales dejaron de ser meras herramientas de conexión para convertirse en infraestructuras de captura cognitiva. La IA se fue convirtiendo progresivamente en el horizonte del modelo de negocio de estas redes sociales, para las que antaño la publicidad dirigida había sido la principal razón de ser de su acumulación y análisis de cantidades masivas de datos. Plataformas como X (con sus tweets entrenando modelos de lenguaje) o TikTok (con sus vídeos optimizando algoritmos de recomendación) replicaron la fórmula, extrayendo datos no remunerados, procesándolos en silos cerrados y monetizando la inteligencia derivada. A su vez el deep learning, en este sentido, no hubiera sido posible sin el capitalismo de vigilancia como base material para convertir la experiencia humana en materia prima para predicciones comerciales. Es decir, que para este desarrollo del deep learning fue una condición material necesaria la capacidad de recolectar, almacenar y procesar billones de datos generados por usuarios en plataformas como Facebook, Google Search o TikTok. Recordemos que ya hubo cierto escándalo en 2014 cuando Google especificó en los nuevos términos de uso de su servicio de correo electrónico gratuito, Gmail, que sus sistemas automatizados analizarían el contenido de todos los correos del usuario para proporcionar resultados de búsqueda personalizados y publicidad adaptada a los gustos personales.
Por último, es también un buen momento para recordar el escándalo de Cambridge Analytica, y destacar que hace mucho tiempo que sabemos cómo se las gastan estas multinacionales:
El escándalo de Cambridge Analytica no fue más que el resultado de la lógica natural de este sistema. En 2013, un investigador llamado Aleksandr Kogan creó una app de «test de personalidad» con su empresa Global Science Research, que recolectó datos de 87 millones de usuarios de Facebook sin su consentimiento, recabando información personal de más del 15% de la poblacion total de EEUU. ¿Y cómo lo hizo si apenas 265.000 personas accedieron al test? Solicitando al usuario permisos para acceder a su información personal... y a la de sus amigos. Es decir, lo sonrojante es que el test de Kogan no necesitó hackear nada. Utilizó APIs abiertas de Facebook, que permitían a terceros acceder no solo a los datos de quienes usaban la aplicación en su propio Facebook, sino a los de todos sus amigos. Estos datos, como los gustos musicales, historiales de interacciones, o los «me gusta» a páginas de carácter político o religioso, fueron vendidos a una compañía llamada Cambridge Analytica, que los utilizó para crear perfiles psicológicos de millones de usuarios. A partir de estos perfiles, se dedicaron a manipular elecciones como la de Trump en 2016 o la del Brexit en Gran Bretaña mediante publicidad dirigida a pequeños grupos que consideraron particularmente vulnerables. Y todo esto no solo era permitido por Facebook, es que formaba parte de la lógica de su aplicación. Si cometieron algún «error» en la red social de Zuckerberg, fue el de no controlar el flujo y monetizar ellos mismos directamente estos datos.Dos personajes especialmente influyentes que aparecen en esta historia de manipulación cultural y electoral, son el estratega ultraconservador Steve Bannon, principal asesor y jefe de campaña de Donald Trump en los tiempos en los que logró acceder a la presidencia de EEUU en su primera legislatura (2017-2021) y que dirigió la empresa Cambridge Analytica a partir de 2014, y el multimillonario inversor y experto en inteligencia artificial Robert Mercer, que fundó Cambridge Analytica y fue uno de los mayores donantes de Trump en la campaña que desembocó en esta primera legislatura. Christopher Wylie, quien destapó el asunto del espionaje e ingeniería social ejecutados sobre millones de perfiles y desató el revuelo judicial, había sido el cerebro técnico, encargándose de reunir al núcleo de psicólogos y científicos de datos que trabajarían para la compañía. Christopher habló también de sus conversaciones con Steve Bannon, su jefe, cuando filtró la información a The Guardian, indicando que el principal interés del ideólogo ultra era convertir los datos capturados en una herramienta de «guerra psicológica». La teoría que Steve Bannon defendía abiertamente delante de Wylie, era que la política es una corriente que desciende de la cultura, concluyendo entonces que para cambiar las tendencias políticas de la gente es necesario cambiar la cultura. Es decir, se trata de la guerra cultural, pero también de que si la gente rechaza tu ideología, lo que tienes que hacer es encontrar la manera de «ponerla de moda». Para lograr este objetivo, la publicidad especificamente dirigida a pequeños segmentos que llevaba a cabo Cambridge Analytica a partir de los datos robados sin consentimiento a los usuarios de Facebook, era un método perfecto. Así por ejemplo, mientras se trataba de exacerbar las perspectivas racistas de algunos votantes blancos particularmente susceptibles tocando temas que les preocuparan, se intentaba convencer a algunos segmentos de votantes negros para que no acudieran a las urnas.Cuando Mark Zuckerberg declaró ante el Congreso estadounidense en 2018, su excusa fue la ignorancia: «Hubo una brecha de confianza». Pero nadie se lo creyó. Facebook acabó pagando una multa de 5.000 millones de dólares en 2019 impuesta por la Comisión Federal de Comercio de EE.UU. (FTC), que especificó que Facebook engañó a los usuarios acerca de su capacidad para controlar la privacidad de su información personal. No había ninguna manera de evitar que tu información acabara en manos ajenas si un amigo tuyo interactuaba con algún elemento como un test de personalidad, o cualquier otra mini-aplicación integrada en Facebook que obtuviera su permiso para acceder a su perfil. La FTC concluyó además que los beneficios de Facebook provenían principalmente de la monetización de la información de los usuarios de la red social mediante anuncios dirigidos específicamente a ellos. A estos usuarios se les impulsaba a compartir su información personal en la plataforma prometiendo que podrían controlar la privacidad de su información a través de las configuraciones de privacidad de la plataforma, pero esta información era compartida con apps de terceros incluso cuando pertenecía a los amigos del usuario que las utilizaba. Es decir, Facebook diseñó sus APIs, las utilidades disponibles para terceros que quisieran programar aplicaciones para Facebook, de tal modo que los desarrolladores externos pudieran acceder libremente no solo a los datos de los usuarios que las instalaran, sino a los de sus amigos, incluso aunque estos últimos no hubieran dado ningún tipo de consentimiento explícito. Esto, como ya se ha indicado, incluía datos como su historia laboral, sus afiliaciones políticas y religiosas, y muchos más.Aunque Facebook se fingió sorprendido al respecto, el caso de Cambridge Analytica no fue un accidente. Era parte de la arquitectura de datos de Facebook. Por eso fue que la FTC impuso aquella multa, la mayor jamás impuesta a una compañía por violar la privacidad de los consumidores, y casi 20 veces superior a la mayor multa al respecto impuesta en todo el mundo. No obstante, aunque la cifra de 5.000 millones de dólares de multa parezca muy alta, los beneficios netos de Facebook en 2019, el año en que la compañía fue multada, fueron de 18.400 millones de dólares.La resolución judicial también impuso restricciones a las operaciones comerciales de Facebook, exigiendo a la compañía la reestructuración de su enfoque de privacidad desde el consejo de administración hacia abajo, estableciendo que los ejecutivos de Facebook serían responsables de las decisiones tomadas al respecto, y sometiendo estas decisiones a supervisión a través de un comité de privacidad interno, obligando también a la empresa a presentar certificaciones trimestrales de que la empresa cumple con el programa de privacidad exigido por la decisión judicial, así como una certificación anual de que Facebook cumple con esta resolución en general. Del mismo modo, la resolución estableció que Facebook a partir de ese momento tendría que documentar cada decisión respecto a la privacidad en toda creación o modificación de sus productos, servicios o prácticas, y esto antes siquiera de su implementación.Tras el escándalo, Meta restringió el acceso a sus APIs, pero no porque tuvieran un arranque de ética e interés por proteger al usuario. Y como no hay mal que por bien no venga, esto sirvió para consolidar su monopolio sobre los datos. Hoy, investigadores independientes y ONGs deben solicitar permisos especiales para estudiar temas críticos como la desinformación en la plataforma, mientras oscuras empresas de marketing se teme que siguen comprando datos en lotes mediante intermediarios.