Una rápida historia de la internet comienza en 1969 cuando dos universidades de la Costa Oeste norteamericana lograron conectar sus computadoras para comunicarse en el marco del programa arpanet, desarrollado por el Departamento de Defensa al calor de la Guerra Fría. Veinte años más tarde, en un contexto de distensión geopolítica y mayor accesibilidad de las tecnologías, Tim Berners-Lee creó una serie de protocolos y lenguajes que conectaban esa información en una telaraña de hipertextos, la web.
Si en 1969 arpanet había descubierto un mundo inmaterial, en 1990 la web trazó las calles y señales de tránsito que nos permitirían pasear por él tranquilos y seguros. Berners-Lee era totalmente consciente del sentido político de su innovación: hacer la internet accesible para todos. A partir de 2001, luego de la crisis de las puntocom, con la consiguiente concentración del sector digital en un puñado de big techs, y en medio del giro de seguridad posterior al atentado contra las Torres Gemelas, se comenzó a cocinar la web 2.0: redes sociales y plataformas que ya no comparten sus datos con la web y retienen al usuario dentro de ellas mediante una multitud de gadgets y funcionalidades internas. Prima aquí el llamado diseño centrado en el usuario10, la retroalimentación constante de la experiencia de los usuarios con las interfaces digitales. Fue la primera deriva de la web: si Berners-Lee hizo de internet una ciudad, las plataformas son barrios privados que explotan recursos públicos sin contribuir a su desarrollo.
Desde entonces, se acumularon análisis de diferente tono y calidad que hablan del deterioro de la web como espacio de intercambio y su efecto sobre los usuarios como nuevo sujeto social. Desde la "mierdificación" o decadencia de las plataformas, según Cory Doctorow, la "silicolonización del mundo" según Éric Sadin, y el "capitalismo de vigilancia" según Shoshana Zuboff, hasta enfoques más complejos y atractivos como el "tecnofeudalismo" según Cédric Durand, el "tecnoceno" según Flavia Costa o el "nanofundismo" según Agustín Berti. A priori, todos esos análisis se enfocan en la capacidad de control social de las nuevas tecnologías. Existe un ecosistema digital envolvente que permite capturar datos de cada uno de nosotros, fundirlos en un mazacote estadístico y retornarlos a un individuo redefinido como perfil de targeting, que va desde un potencial cliente hasta un posible terrorista. El volumen de información extraída de los usuarios de internet y procesada permite cruzar y escalar los viejos datos biométricos con los nuevos datos conductuales registrados por la digitalidad. El resultado es un sujeto plano y transparente, del que es más importante predecir la conducta que comprender los motivos.
Sin embargo, sería un error considerar al nuevo sujeto como arcilla dócil en las manos del algoritmo. La web 2.0 es un recipiente de sitios y programas formateado por sus usuarios, que fueron diseñando plataformas y aplicaciones, y transformando una red pensada para el intercambio y el sharing de agradables sujetos neoliberales en un espacio de reafirmación identitaria y formación de seguidores. Lo mismo puede decirse de muchas redes sociales, videojuegos, etc. Se fue reemplazando una lógica de comunicación masiva e industrial -pocos medios masivos produciendo información homogénea para muchos usuarios- por la horizontalización de la red: todos los usuarios produciendo información customizada para pequeños grupos. El feedback dentro de ese ecosistema derivó en una conectividad cada vez menos orientada al intercambio y más hacia la reafirmación de un "yo" tribal y emocional, sobrepasado de información polémica que no puede absorber. Tiene que elegir, más allá de cualquier evidencia, y en el ejercicio de esa libertad no racional rompe cualquier predictibilidad y ordenamiento colectivo. El mismo ecosistema tecnológico que nos hizo transparentes para un algoritmo nos hizo opacos para nosotros mismos.
Varios analistas incorporan ese entorno tecnológico como un factor de la ingobernabilidad actual. Para William Davies, la sobrecarga informativa no solo desautorizó a las voces expertas con un flujo de datos tan precisos como variables, sino que permitió "personalizar" la verdad. En el siglo XXI, la autoridad de los datos dejó de ser un sol que brilla para todos y pasó a ser un conjunto de estrellas fugaces alrededor de cada uno. Para Martin Gurri, en algún momento del siglo XXI las nuevas tecnologías le dieron voz a un público masivo, que abandonó el rol pasivo al que lo había reducido durante ese siglo el mainstream de instituciones autorizadas y concentradas que Gurri llama el "Centro". Ahora ese público se organiza en sectas de opinión marginales, que el autor llama "Frontera": "El resultado es una parálisis por desconfianza. Ya está claro que la Frontera puede neutralizar al Centro, pero no reemplazarlo. Las redes pueden protestar y derrocar, pero no gobernar. La inercia burocrática confronta al nihilismo digital. La suma es cero".
Los análisis de Davies y Gurri, si bien relativamente recientes, todavía toman como marco la ya vieja web 2.0. Hoy entramos en una tercera deriva de ese entorno digital. La IA no hace más que extremar las tendencias sociales de la web 2.0. Se trata de una tecnología –el aprendizaje automático por redes– que viene desarrollándose desde 1943, pero que conoció un período de desinversión durante las décadas de 1970 y 1980, cuando cundió la desconfianza en poder replicar el funcionamiento neuronal con electrodos. El desarrollo de la web en los años 90 proveyó a esas redes de un volumen de datos hasta entonces inasequible, y así volvió la primavera de la IA. En 2012, un equipo encabezado por Geoffrey Hinton y asociado a Google presentó una red neuronal artificial capaz de reconocer objetos con 70% más de precisión que otras redes. Nacía el "aprendizaje profundo": el procesamiento en paralelo por parte de varias redes neuronales y el entrenamiento de los algoritmos mediante retropropagación hacia un objetivo concreto. El diseño centrado en el usuario sigue siendo fundamental. Esta nueva primavera de la IA se alimenta de los datos y contenidos que brotan del seno de la web. Los sesgos y estereotipos, la desinformación deliberada, la violación de los derechos de autor y la agresividad son parte de los nutrientes que asimila.
Si hasta hace 10 años la ciudadela de internet se preocupaba por la piratería, los discursos de odio y las teorías conspirativas que asolaban a suburbios como 4chan o Megaupload, ahora ese material emana de los edificios del centro: Google, Microsoft, Meta, Amazon, Alibaba, Baidu y Tencent. Todos embarcados en una carrera por desarrollar una tecnología que amplifica un solo insumo: nosotros mismos, la sinrazón humana. Si la web se enlazó desde el principio con el sustrato irracional de la humanidad, la IA digiere esa internet para dar lugar a algo humano, demasiado humano. E ingobernable.
En busca de la gobernabilidad 4.0
Gurri considera que esta nueva ingobernabilidad puede derivar tanto "en el caos como en China". Por un lado, están aquellas proyecciones que se enfocan en el nuevo paradigma tecnoeconómico como mecanismo de control y ven a China como un laboratorio replicable en Occidente. Un ecosistema digital semicerrado, con aplicaciones nativas (Baidu, Weibo, TikTok), centros de datos propios, empresarios voraces y una ingente cantidad de datos que quedan dentro del mismo ecosistema, gestionado por un Estado con menos trabas legales para intervenir en ese ecosistema y en la vida de sus usuarios. Si China pudo desarrollar su propio ecosistema digital, otros también lo van a intentar. Más aún cuando hay nuevas playas por conquistar: la IA y la computación cuántica, entre otras. La desglobalización que caracteriza el capitalismo 4.0, con su reubicación productiva (reshoring) y sus disputas por la hegemonía, puede extenderse también a la web. Este modelo de gobernabilidad cerrado y desglobalizado puede permitir que resurja cierto grado de diversidad tecnológica y cultural, luego de medio siglo de homogenización global de las tecnologías y los consumos. Pero también puede plantear problemas de gobierno mundial, al fragmentar el capitalismo 4.0 en bloques competitivos entre sí, sin una hegemonía clara que los regule.
Por otro lado, está la opción caótica: hacer de la ingobernabilidad una gobernabilidad en sí misma. Uno de los ensayos mejor vendidos al respecto es "Los ingenieros del caos", del consultor ítalo-suizo Giuliano da Empoli. Esencialmente descriptivo y considerablemente superficial en su conceptualizaciones, el libro toma a varios "ingenieros del caos", asesores políticos o especialistas en marketing que entendieron que en la opinión pública digital y en la nueva política "el juego ya no consiste en unir a las personas en torno de un denominador común, sino, por el contrario, en inflamar las pasiones de tantos grupos como sea posible y luego sumarlos, incluso a los predeterminados. Para obtener una mayoría, no convergerán hacia el centro, sino que se unirán con los extremos". Una vez más, el entorno digital es determinante para esta ingeniería del caos:
Estos ingenieros del caos están en camino de reinventar la propaganda adaptada a la era de las selfies y las redes sociales y, como consecuencia, transformar la naturaleza misma del juego democrático. Su acción es la traducción política de Facebook y Google. Es naturalmente populista, porque, al igual que las redes sociales, no admite ningún tipo de intermediación y sitúa a todos en el mismo plano.
Aquí también convendría no exagerar la novedad: ya en 1942 Franz Neumann consideraba que la estructura y práctica de poder del régimen nacionalsocialista alemán era esencialmente caótica. Si se trata de gobernar mediante el caos, la inflamación de pasiones y la destrucción de intermediaciones, también contamos con un modelo oriental: la Gran Revolución Cultural Proletaria china que Mao Zedong proclamó y condujo entre 1966 y 1976, una exaltada movilización de juventudes y milicias no solo contra los restos de la cultura burguesa (el Partido Comunista Chino estaba en el poder desde 1949), sino contra cualquier forma de autoridad (la familia, la docencia, los expertos e intelectuales) y, en especial, contra los propios dirigentes del Partido, sospechados de querer burocratizar la revolución como lo había hecho el revisionismo soviético posterior a Stalin. En el centro de esa espiral de caos se reforzaban el liderazgo y poder personal del propio Mao. Dentro de los modestos límites materiales de la República Popular China, el maoísmo también explotó su entorno tecnológico: el gobierno instaló un sistema de altoparlantes en el techo de cada edificio de departamentos, en las escuelas rurales y las bases militares que transmitía la radio estatal a todo volumen desde las 6 de la mañana.
Como modelo para Occidente, la ingeniería del caos maoísta no tiene mucho que aportar: se extinguió en su propio apetito de destrucción, hizo colapsar económicamente a la nación y no pudo evitar la efectiva burocratización de la dirigencia comunista.
Para el politólogo Roland Lew, sin embargo, el maoísmo involuntariamente sentó las bases para el posterior desarrollo acelerado del capitalismo en China: destruyó gran parte de las instituciones tradicionales que pudieran obstaculizar el flujo del capital y disciplinó tanto a la sociedad como a la dirigencia comunista en la supervivencia y flexibilidad ante la inestabilidad constante. Mientras Rusia saltó de un comunismo planificado a un capitalismo caótico, China pudo transicionar desde un comunismo caótico a un capitalismo planificado. Quizás la mayor lección maoísta que pueda extraer Occidente sea que la ingeniería del caos allane el camino a un capitalismo 4.0 ordenado. Y es difícil no pensar que la democracia liberal hoy se perciba como una de esas instituciones y prácticas tradicionales que pueden obstaculizar el flujo del capital.
Comentarios
Publicar un comentario