Las tecnologías digitales
están a punto de derrotar a la democracia y el orden social
Las
plataformas de redes sociales, los datos masivos, la tecnología móvil y la
inteligencia artificial, que dominan cada vez más la vida económica, política y
social, amenazan el sistema de gobierno occidental. El experto Jamie Bartlett
detalla cómo avanza ese peligro en "The People vs. Tech", su nuevo
libro
20 de
octubre de 2018
Alexander
Nix, en el centro del escándalo de Cambridge Analytica, muestra el uso de las
redes sociales como Facebook para crear perfiles de votantes y manipular los
mensajes.
Jamie Bartlett lleva diez años trabajando en la
relación entre nuevas tecnologías y democracia.
Cuando comenzó escribía "panfletos sobre cómo la tecnología digital
instilaría nueva vida en nuestro sistema político fatigado
más allá de la esperanza". Pero con el tiempo su optimismo se convirtió
en realismo, y luego en nerviosismo. "Ahora está llegando a un pánico
moderado", escribió en su nuevo libro, The
People Vs Tech: How the Internet Is Killing Democracy (and How We Save It).
El pueblo
versus la tecnología: Cómo internet está matando la democracia (y cómo la
salvamos) abre con una advertencia:
"En los próximos años o bien la tecnología destruirá la democracia y el
orden social tal como los conocemos, o la política impondrá su autoridad sobre
el mundo digital. Se vuelve cada vez más claro que la tecnología está
ganando esta batalla".
Bartlett,
director del Centro para el Análisis de las Redes Sociales del think tank
británico Demos en conjunto con la Universidad de Sussex, se refiere
específicamente a las "tecnologías digitales asociadas con Silicon
Valley: plataformas de redes sociales, datos masivos, tecnología
móvil e inteligencia artificial, que dominan cada vez más a vida económica,
política y social". Como experto en el área las valora: cree que tienden a
expandir las capacidades humanas y hasta a crear más felicidad. "Pero eso
no significa que sean buenas para la democracia".
Las redes
sociales, los datos masivos, la tecnología móvil y la inteligencia
artificial afectan a la democracia, que es analógica.
En
realidad, reconoce, son universos opuestos. A cambio de los beneficios
de una revolución –que, además, está apenas en sus comienzos–, las democracias
occidentales han permitido que se socavaran componentes centrales del sistema:
control, soberanía parlamentaria, igualdad económica, sociedad civil,
ciudadanía informada.
"En
un nivel profundo, estos dos grandes sistemas —tecnología y democracia—
están trabados en una lucha encarnizada. Son los productos de épocas
completamente diferentes y funcionan según distintas reglas y principios.
El engranaje de la democracia se construyó en la era de los estados nacionales,
las jerarquías, la sumisión y las economías industrializadas. Las características
fundamentales de la tecnología digital van en contra de este modelo: es
no-geográfica, descentralizada, impulsada por datos, sujeta a los efectos de
red y el crecimiento exponencial".
En pocas
palabras: "la democracia no fue creada para esto". Apenas debajo de
la devoción de Silicon Valley por la conectividad, las redes y las comunidades
globales asoma el autoritarismo.
Jamie
Bartlett, autor de un análisis integral sobre cómo la tecnología digital
amenaza la democracia occidental y el orden social que la
acompaña. (Penguin Australia)
Pero no
al estilo de la década de 1930: "Creo que la democracia va a fracasar
de maneras nuevas e inesperadas. La distopía amenazante a temer es una
democracia vacía dirigida por máquinas inteligentes y una nueva élite de
tecnócratas 'progresistas' pero autoritarios. Y lo peor es que
mucha gente la va a preferir, dado que probablemente les ofrezca más
prosperidad y seguridad que lo que tenemos hoy".
Aunque
concede a los empresarios de Silicon Valley una fe honesta en el poder
emancipador de la tecnología digital, Bartlett la ve peligrosa. "La
democracia es analógica, no digital", escribió.
Seis
pilares hacen que la democracia funcione, sintetizó: ciudadanos activos, una
cultura común, elecciones libres, igualdad entre las partes interesadas,
competencia económica con libertad civil y confianza en la autoridad. Los
seis son vulnerables a las tecnologías y alrededor de esos problemas organizó
el libro.
Los ciudadanos dejan
de ser activos por la adicción a los dispositivos y las plataformas. "Vivimos en un panóptico
publicitario gigante", definió. "El sistema de recolección de datos y
predicción es apenas la manifestación más reciente en una larga historia de
esfuerzos para controlarnos". Aunque Facebook haya elegido como
domicilio 1 Hacker Way, que asocia la marca con la rebeldía, su linaje es otro,
menos romántico: la publicidad, el uso de la psicología para influir en
la decisión de compra de las personas. "Google, Snapchat, Twitter,
Instagram, Facebook y demás hace rato que han dejado de ser empresas
tecnológicas: son también firmas publicitarias. Aproximadamente el 90% de
los ingresos de Facebook y Google provienen de vender avisos".
Bartlett
midió su propia conducta y descubrió que, excepto cuando duerme, mira el
teléfono una vez cada 12 minutos. Citó a Adam Alter, quien advirtió que la adicción
al alcohol y el tabaco están dejando espacio a la dependencia digital: no
es que la gente —en especial, los jóvenes— rechacen esas y otras
sustancias para vivir más sanamente, sino que sus cerebros reciben las
descargas de dopamina de otras fuentes, como el "me gusta" o el click.
"En
2004 Facebook era divertido", escribió Alter. "En 2016 es
adictivo". En el camino, surgió la "economía de la atención".
Las redes
sociales crean ciudadanos pasivos, adictos a la pantalla en busca del
“me gusta” o el click.
Sean
Parker, co-fundador y ex presidente de Facebook, reconoció que él y
Mark Zuckerberg explotaron "una vulnerabilidad en
la psicología humana" al diseñar las plataformas para
"consumir la mayor cantidad de tiempo y atención consciente" del
usuario. "Es un circuito cerrado de retroalimentación de validación
social".
Los datos
están en el centro del asunto: permiten a las empresas conocer al usuario
más de lo que él se conoce a sí mismo, y dirigirle avisos a medida.
Actualmente los datos existentes superan la capacidad humana de procesamiento,
pero en 2020 habrá cuatro veces más dispositivos que los recojan: 50.000
millones de aspiradoras de información en teléfonos, automóviles,
electrodomésticos, ropa, libros, juguetes… De allí el valor de los
algoritmos que sí pueden procesar esos volúmenes enormes de datos, y más:
"Lo aterrador de los algoritmos de datos masivos es cómo pueden averiguar
cosas sobre nosotros", según el autor.
Dio el
ejemplo de los estudios de Michal Kosinksi, de la Universidad de Stanford,
sobre perfiles de usuarios armados a partir de sus "me gusta" en
Facebook. Los algoritmos "pueden tomar sus preferencias musicales o
literarias y extraer de esta información aparentemente inocente predicciones
muy exactas sobre tu religiosidad, potencial de liderazgo, opiniones políticas,
personalidad", lo citó.
La
campaña presidencial de EEUU en 2016 fue un fuerte ejemplo de la “datificación”
de las elecciones, como llamó Jamie Bartlett al fenómeno. (AP)
¿El
objetivo? Publicidad. De
comida para perros. De seguros de salud. De candidatos políticos.
Y más: el
panóptico moderno, "esta clase de visibilidad y monitoreo permanente,
es una manera de imponer conformidad y docilidad. Estar siempre bajo
vigilancia y saber que las cosas que uno dice se juntan y se comparten crea
una autocensura moderada pero constante". Eso daña la capacidad de
desarrollar un juicio propio como ciudadano. Porque para pensar por uno
mismo, es necesario cometer errores y aprender. "Pero las redes
sociales crean una forma extraña de actuación política, en la que todos
representamos ciertos papeles y existen respuestas aceptables".
¿Hizo alguien un comentario idiota en Twitter a los 14 años? Existirá para
siempre y se podrá volver a publicar tal como está, fuera de contexto, cuando
esa persona tenga 64 años. "Más y más gente concluirá que es más seguro
simplemente no decir nada".
Un
problema adicional es la manipulación. Si el objetivo es que una persona
pase más tiempo en una plataforma para mostrarle más publicidad, "¿qué
pasa si a los antisemitas se les dirige cada vez más contenido violento
personalizado simplemente porque un modelo sugiere que pasarán más tiempo
mirándolo? O quizás se puede vender un 20% más de antidepresivos si
se contacta a la gente en cierto momento de la semana y se le dirigen
mensajes que bajan la autoestima".
Cambridge
Analytica también usó datos de Facebook para influir a los votantes a favor del
Brexit.
Delegar
las decisiones en la inteligencia artificial (porque no sólo una máquina hará mejores
diagnósticos que un médico, sino que se podrán tercerizar en algoritmos el voto
y la educación de los hijos) no sólo eliminaría la dimensión moral del ser
humano, también erosionaría su capacidad de pensar libremente. "Dado
lo malos que a veces somos al tomar decisiones difíciles, el resultado podría
ser una sociedad más sabia y más humana. Pero difícilmente se podría llamar
democracia a un lugar así".
Una
cultura común, curiosamente, es algo que se pierde con la plena conectividad y el
exceso informativo, que en realidad alientan las pequeñas tribus, donde las
reacciones emocionales y la lealtad superan a la razón y la comprensión.
"Los líderes políticos evolucionan con el nuevo medio de información: de
ahí el ascenso de populistas que prometen respuestas emotivas, inmediatas y
totales", interpretó Bartlett. "Pero las tribus beligerantes de
ciudadanos sin eje, confundidos, son las precursoras del
totalitarismo".
Expresiones como
burbuja de filtros, noticias falsas y posverdad se han popularizado a
medida que las noticias circularon por las plataformas y la desinformación hizo
que las personas recortaran sus fuentes a la medida de sus creencias. "Con
la conexión infinita, encontramos gente similar y con ideas similares, y nos
apiñamos". La fragmentación no tiene límite: "En internet
cualquier puede encontrar cualquier clase de comunidad que desee (o
inventar la propia)", señaló el autor. "Cualquiera que esté molesto
puede ahora, automáticamente, a veces algorítmicamente, encontrar a otra gente
que está molesta de manera similar".
El
fenómeno de la re-tribalización que producen las redes sociales fue explotado
por Internet Research Agency, grupo cercano al Kremlin, durante las
elecciones presidenciales de EEUU.
Así la re-tribalización
puede conducir a la alt-right o al veganismo radical, y la cámara de
resonancia de la red convierte cualquier grupo en una horda. "El
tribalismo es comprensible, pero en definitiva daña la democracia, porque
tiene el efecto de agrandar las pequeñas diferencias entre nosotros y
transformarlas en golfos enormes, insuperables".
Internet,
como medio ante todo emocional, exacerba la tendencia humana al tribalismo y
la reacción sin reflexión. Pero, advirtió el especialista, "si el
partidismo se impone a todo, la democracia deja de funcionar porque el acuerdo
se vuelve imposible".
La red
también permite el acceso a las tribus enemigas. "Veo perspectivas
opuestas a la mía todo el tiempo; rara vez me cambian la opinión, y con más
frecuencia simplemente confirman mi creencia en que soy la única persona
cuerda en un mar de idiotas", ironizó.
La
característica es de los humanos, no de la tecnología. Sin embargo,
las tecnológicas "convirtieron estas debilidades psicológicas
en rasgos estructurales del consumo de noticias y las explotaron para ganar
dinero", observó el texto. "Sus incentivos financieros algunas veces
van en contra de la necesidad democrática que la gente tiene de estar
informada y nutrirse de un arco amplio de fuentes e ideas ciertas".
Zuckerberg
puede insistir en que Facebook es una plataforma, donde circulan todos los
contenidos —no un medio, donde se publica o se ignora según una
línea editorial— pero en la realidad eso sólo tiene efectos legales. "Ser
aparentemente neutral es en sí una suerte de decisión editorial. Todo en
las redes sociales está editado, por lo general por algún misterioso
algoritmo en lugar de un editor humano. Estos algoritmos fueron diseñados
para brindarle a alguien contenido que probablemente va a clickear,
puesto que eso significa el potencial de vender más publicidad".
Aun la
más leve de las confirmaciones sesgadas crea un ciclo de auto-perpetuación,
una burbuja en la que no hay otro. Y sin otro no hace falta
democracia.
La
legitimidad de las elecciones se pone en cuestión a partir de la manipulación
de la intención de voto que hacen posible los datos masivos. (Reuters)
Uno de
los temas centrales del libro, la pérdida de legitimidad de las
elecciones libres, muestra cómo "los datos masivos y la
micro-localización pueden ganar votos". Por ejemplo, Aunque
Hillary Clinton lo superó por casi 2,9 millones de votos en los Estados
Unidos, Trump obtuvo la mayoría del Colegio Electoral porque ganó en
cuatro estados decisivos gracias al modo en que hizo su campaña en redes
sociales allí.
Todo el
trabajo de Cambridge Analytica, tanto para Ted Cruz como para el actual
mandatario, se basó en la construcción de perfiles a partir de la
información personal de 87 millones de usuarios de Facebook (que no lo sabían,
mucho menos lo habían autorizado). Y esta competencia no va a terminar,
advirtió Bartlett. "Cada elección se datifica de esta manera,
realizada por una red de contratistas privados y analistas de datos que ofrecen
estas técnicas a los partidos políticos en todo el mundo".
El
problema mayor que ve, si se deja estas técnicas sin control, es que su
evolución "va a cambiar cómo hacemos una opción política, qué clase de
gente elegimos e incluso si pensamos que nuestros comicios son realmente libres
y justos".
Cambridge
Analityca trabajó con datos malversados a 87 millones de usuarios
de Facebook, razón por la cual la red social debió dar explicaciones
a las autoridades en EEUU y Europa.
Si los partidos
políticos tradicionales han girado alrededor de la construcción de programas,
ideas que permitían que ciudadanos con intereses variados se organizaran
colectivamente, el big data es lo opuesto: la atomización, la
división en grupos de intereses específicos al punto de un modelo
personalizado. "Si cada quien recibe un mensaje personalizado, no hay
debate público común: sólo millones de debates privados", ilustró el
experto.
Una
consecuencia es que reduce la responsabilidad de los funcionarios:
"La hiperpersonalización incentiva a los políticos para hacer distintas
promesas a distintos 'universos' de usuarios". Inclusive contradictorios:
no hay manera de exigir rendición de cuentas. Tampoco las autoridades
pueden verificar la legitimidad del mensaje (si no contiene mentiras, por
ejemplo) dado que son una miríada de avisos personalizados.
Y los
psicográficos de Alexander Nix, el CEO de Cambridge Analytica, son
pintura rupestre en comparación con el identikit del votante que podría
permitir la internet de las cosas. "Dentro de una década, la heladera
sabrá a que hora comemos, el auto conocerá dónde estuvimos, el asistente del
hogar calculará nuestro nivel de ira por el tono de la voz", ilustró. Al
cruzar los datos, las consultoras del futuro cercano establecerán que aquel
que se irrita cuando tiene hambre será más sensible a los avisos de
candidatos autoritarios antes de la cena, cuando regresa del trabajo,
por ejemplo.
Echo, el
asistente personal de Amazon, y otros dispositivos conectados a al
red poseerán una cantidad gigantesca de datos sobre los votantes del
porvenir cercano.
Y como la
naturaleza del mensaje digital es la deslocalización geográfica, podría
llegar de las oficinas de Internet Research Agency, el centro de la
injerencia rusa en las elecciones estadounidenses de 2016. "En el
cuadrilátero rojo: un negocio multimillonario de influencia y control que se
vuelve más exacto y dirigido cada año. En el cuadrilátero azul: un puñado de
reglas electorales viejas y obsoletas diseñadas para la era de los medios
masivos y el proselitismo puerta a puerta".
Bartlett
también aborda el problema de la desigualdad social a partir del
impacto de la inteligencia artificial en el mercado de trabajo. "En
lugar de especular sobre un 'futuro sin trabajo' deberíamos preocuparnos por la
creciente desigualdad", advirtió. Que podría ser tan aguda como
para "borrar de la faz de la Tierra a la clase media".
El paso
del aprendizaje automático al aprendizaje profundo (por el cual en lugar de
darles ejemplos a las máquinas se les establecería un conjunto de reglas para
que resolvieran los problemas por sí mismas) puede demorar, pero afectará
seriamente el tejido social. El texto pone como ejemplo a los conductores
de camiones que serían innecesarios. Aunque Silicon Valley dice que los
desempleados podrían recapacitarse como desarrolladores de redes, Bartlett
cree que es más probable que terminen en "trabajos más precarios,
temporarios, de bajos ingresos". Tal vez puedan "limpiar las
máquinas que limpian las máquinas que reparan los camiones sin conductor que
alguna vez ocuparon".
La
irrupción de la inteligencia artificial en el mercado de trabajo, como los
100.000 robots que ya trabajan en los depósitos de Amazon, amenaza la
existencia de la clase media.
Los trabajos
no rutinarios (los que requieren intuición, creatividad y pensamiento
independiente en situaciones cambiantes), que son muy bien pagos (ingeniero
de Google) o muy mal pagos (jardinero) no encabezan la lista de los
reemplazables: "Son los empleos en el medio, que se podrían llamar 'de
conocimientos rutinarios', los que estarán más en riesgo": de
operadores de trenes a consejeros de hipotecas, de liquidador de impuestos a
radiólogos.
Otro
problema es la tendencia de las tecnologías al privilegio: a un aumento
de la productividad del 80% correspondió un aumento del salario del 10% y
"como regla general, la tecnología da poder a quienes tienen el dinero
o las habilidades para aprovecharla". Los ocho hombres más ricos del
mundo poseen ya más que la mitad más pobre de la población mundial, y cuatro
de ellos son fundadores de compañías tecnológicas.
Lo cual
lleva al punto siguiente: competencia económica con libertad civil. "La
ilustración más extrema —y en los próximos años, probablemente la más urgente—
sobre cómo las tecnologías digitales impulsa la desigualdad es la creación
de enormes monopolios tecnológicos". Cinco de las empresas con mayor
valor de mercado del mundo son de Silicon Valley.
Las
grandes empresas de Silicon Valley son también los grandes monopolios del
mundo, con gran capacidad para el lobby político y para el control cultural.
(iStock)
La
tendencia es tan inesperada como fatal: la tecnología crea monopolios. Pero
no sólo económicos: también políticos y culturales. Su manera de hacer
lobby difiere de las grandes empresas tradicionales en varios factores, entre
ellos en que las tecnológicas "poseen las plataformas en las cuales se
publica el material", con lo cual tienen, en sí mismas, una
"importante influencia sobre la opinión pública y el activismo". Así muere
la idea de asociación libre en los ciudadanos.
Bartlett
llega al último punto de su libro: el reclamo de la protección de la
privacidad ha dado lugar al surgimiento de una "cripto-anarquía",
que aspira a socavar los grandes poderes —incluido el de los estados— mediante
la encriptación. En nombre del respeto al dominio individual de los datos
propios, "amenaza con debilitar al estado casi al punto de su
colapso".
La
tecnología de cifrado de clave pública más popular es bitcoin,
que el libro describe como "más que dinero: una nueva forma de manejar
información". La enorme base de datos donde se guarda cada transacción
que se realiza en bitcoin, blockchain, "puede también guardar otra
información". Y eso podría ser "tan revolucionario como la misma
internet, porque representa una manera de guardar información mucho más
descentralizada".
La
tecnología blockchain permite guardar todo tipo de información, no sólo
transacciones económicas, de manera descentralizada. (Getty Images)
En países
con gobiernos diferentes de la democracia occidental, estas tecnologías ayudan
a proteger a los ciudadanos y la información pública de una manera crucial.
Y en las democracias, que son un sistema donde la libertad puede ser eliminada
(si uno no paga los impuestos o comete un delito, por ejemplo), "la
cripto-anarquía es dinamita contra el control estatal, porque desafía la
autoridad del gobierno para coercionar a la gente que se halla dentro de sus
fronteras y a controlar la información".
El
ejemplo más simple es el modo en que estas tecnologías terminan con la
confianza de los individuos en el sistema judicial: "¿Qué pasa cuando,
por ejemplo, nuestra policía simplemente no puede eliminar material ilegal de
la red? ¿O cuando no pueden perseguir cibercriminales o detener el software
malicioso?". Cuando los derechos de una persona no terminan donde
comienzan los de otra, la democracia deja de funcionar.
Jamie
Bartlett comenzó escribiendo panfletos optimistas sobre el modo en que la
tecnología mejoraría el sistema político. Ahora avizora el fin de la
democracia. (Flickr)
"Si
transportásemos a 2018 a Locke, Rousseau, Jefferson, Montesquieu,
estarían deslumbrados por nuestros smartphones, aviones, bitcoins, hospitales,
emojis y lanzacohetes. También estarían asombrados de descubrir que todavía
nuestras democracias funcionen del mismo modo que en los días de carruajes y
caballos, mosquetes y velas", observó el autor. "Como la
inteligencia artificial, la democracia es una tecnología de propósito
general", recordó: dado que puede cambiar, cada una de sus
fases debería ser un producto de su época.
Su
conclusión es sombría: "A menos que modifiquemos el rumbo, la democracia
será arrasada por la tecnología y se unirá al feudalismo, las monarquías
supremas y el comunismo como otro experimento político que funcionó por un
tiempo". Cree, sin embargo, que todavía se está a tiempo de evitarlo.
No hay comentarios.:
Publicar un comentario