El uso de los datos masivos para gobernar

En tiempos de pandemia los  gobiernos  utilizan la big data para obtener datos sobre diferentes cuestiones para tomar decisiones.  Este artículo da cuenta de la “gubernamentalidad algorítmica”, en términos de Foucault, y cómo repercute en la crisis sanitaria producida por el coronavirus.  La protección de las libertades individuales, el capitalismo de plataformas y la dominación.  Entrevista a la investigadora belga Antoinette Rouvroy.

Por Vaia Demertzis*

En la lucha contra la propagación del coronavirus, los poderes públicos recurren a las tecnologías de datos masivos (big data) para acotar la pandemia mediante el rastreo de contactos.

Este uso de datos digitales masivos suscita debates apasionados sobre el lugar de las tecnologías digitales en las decisiones públicas y la protección de las libertades individuales. Antoinette Rouvroy, titular de la cátedra Francqui (por la parte belga) de la Universidad de Lieja en 2019-2020, consagra sus trabajos de investigación a esta cuestión.

-Sus trabajos sobre la gubernamentalidad algorítmica interrogan los límites e implicaciones de las relaciones entre el derecho, las ciencias y tecnologías y los modos de gobernar. ¿Cómo repercuten en la gestión de la crisis sanitaria del coronavirus?

Esta crisis sanitaria es un suceso en el sentido más interruptivo del término. Se supone que los datos masivos y la inteligencia artificial potencian nuestra capacidad de anticipación de los fenómenos emergentes, la eficacia operativa en todos los ámbitos de actividad y de gobierno que allí se convierten, y neutralizan la incertidumbre. Sin embargo, no han visto venir estrictamente nada. Esta efracción espectacular y trágica del mundo y de sus pangolines en la trama ilusoria del control, de la optimización y de la anticipación revela los límites de la data science-fiction (1). Desbarata las pretensiones tecnoinmunitarias de la gubernamentalidad algorítmica.

Esta gubernamentalidad algorítmica se apoya en la perspectiva de una modelización y de una regulación automáticas del ámbito social, basadas en la recolección y el tratamiento algorítmico de los datos digitales disponibles en cantidades masivas, en vez de la política, el derecho y las normas sociales.

Esta crisis marca el fin de un sueño, o de la ilusión inmunitaria de una sociedad digitalizada, desterritorializada, desmaterializada, ilimitada, indemne. Al mismo tiempo que hace tambalearse la constatación desengañada del escritor y filósofo británico Mark Fisher: “Se ha vuelto más fácil imaginar el fin del mundo que imaginar el final del capitalismo». Esta crisis en el sentido más literal y etimológico –momento decisivo, punto de inflexión entre vida y muerte– es un suceso. Merecer lo que nos ocurre, como diría Deleuze –cuando no sabemos exactamente qué nos ocurre– exige tal vez, en primera instancia, reconocer este estado de theoria interrupta, esta confrontación con lo irrepresentable, esta extralimitación del mundo con respecto a toda representación.

No obstante, uno de los rasgos ingeniosos del capitalismo en general, y del capitalismo digital en particular, reside en la invencibilidad aparente de sus capacidades recombinantes. Cuando sectores enteros de la economía están a punto de hundirse, la pospandemia aparece como un porvenir radiante para los industriales de lo digital.

En la perspectiva de hacer perdurar –o de recuperar lo antes posible– la normalidad anormal de un mundo de funcionamiento económico y social extremadamente poco resiliente y muy poco sostenible desde el punto de vista de la ecología medioambiental, climática, social y psíquica, el suceso se ve rápidamente descalificado en ocasión: ocasión, en particular para el capitalismo digital o capitalismo de plataformas, de transformar una situación de dominación en condición hegemónica.

Sin embargo, la suerte de los trabajadores de plataforma resulta poco envidiable. La mística futurista del Silicon Valley idealiza el sin contacto invisibilizando a los trabajadores y trabajadoras que aseguran la logística de la economía digital. Esta población está tanto menos protegida en la medida en que, gracias a la uberización de la economía, se elude manifiestamente el derecho laboral: la nueva des-organización del trabajo pone a cada trabajador en contacto directo e individualizado con la plataforma y lo somete a la evaluación en directo por sus usuarios, en función de criterios infinitamente móviles y subjetivos. La nueva visibilidad ganada por estos trabajadores, en virtud del confinamiento de todos los demás, no bastará sin duda para asegurarles un plus de poder de negociación en un contexto económico más que desfavorable.

El confinamiento domiciliario impuesto a una porción gigantesca de la población mundial y la puesta en línea de sectores enteros de la actividad y de las interacciones humanas han constituido igualmente una ocasión: ocasión para el despliegue de nuevos servicios (plataformas de enseñanza a distancia, de consultas médicas a distancia…) –considerados, a menudo con razón, absolutamente indispensables–, ocasión para intensificar la colecta de datos relativos a los comportamientos y modos de vida (datos muy útiles para el desarrollo de algoritmos de inteligencia artificial), ocasión para el acaparamiento por las plataformas de comercio en línea de partes del mercado antes en manos de comercios convencionales… Parece que estas plataformas digitales se han ganado de golpe la confianza del consumidor, mientras que las autoridades públicas, a su vez, suscitan mucha desconfianza cuando pretenden recolectar datos personales –por mucho que los anonimicen–, en especial con fines de sanidad pública.

-Estas tecnologías llevan aparejado cierto fantasma de omnipotencia. De todos modos, el examen de las aportaciones del rastreo de contactos en el marco de otras epidemias –en particular la del Ébola en Sierra Leona en 2014– ha demostrado que la inteligencia artificial no siempre está a la altura, porque no tiene en cuenta los comportamientos humanos, a veces decisivos en el contexto de una epidemia. ¿Cuál puede ser entonces la función de estas tecnologías en la toma de decisiones?

Mientras no han sido capaces de alertar sobre la aparición de la pandemia, las tecnologías digitales se movilizan ahora especialmente para limitar su expansión, facilitando al mismo tiempo la reanudación de la actividad económica (2). El rastreo digital de las promiscuidades potencialmente contagiosas se lleva a cabo mediante el registro de las señales bluetooth emitidas por el teléfono móvil de quienes se hayan descargado la aplicación. Tanto si esta última se ajusta más o menos a los grandes principios de la protección de datos o no, si estos datos se conservan de manera más o menos centralizada o no o si la descarga de la aplicación es obligatoria o no. Este rastreo instaura sobre todo una nueva manera de cartografiar el fenómeno epidémico a la escala de la señal digital móvil desterritorializada, en un espacio geométrico abstracto, donde solo cuentan las distancias entre señales captadas y la duración de esta promiscuidad digital, con exclusión del contexto físico, social, ambiental en el que se emiten estas señales.

Independientemente de las eventuales amenazas para la vida privada y la protección de los datos, uno de los numerosos problemas que suscitan estos dispositivos, como es sabido, radica en la reducción informática que operan con respecto a la complejidad del contexto. Esta reducción sesga evidentemente, de modo irrefutable, los resultados. El sesgo principal de estas aplicaciones es la existencia de un mundo físico, orgánico, material que excede por todos los lados la realidad digital de alta resolución/disolución digital.

Un ejemplo: la promiscuidad potencialmente contagiosa detectada entre dos teléfonos móviles no tiene en cuenta la eventual presencia, entre ambos emisores, de una pantalla de plexiglás que descarte toda posibilidad de contagio, o el hecho de que las dos personas lleven puestas sendas mascarillas que reducen drásticamente su probabilidad. El mapa no es el territorio y al no tener en cuenta el contexto, las señales no dicen nada de la materialidad de las situaciones de las que emanan. Tampoco se tienen en cuenta la variabilidad de posesión de teléfonos móviles según la edad o la condición socioeconómica de las personas, ni la variabilidad de la intensidad de las señales bluetooth emitidas por los aparatos de marcas o gamas diferentes… Si las señales digitales se han captado sin que por lo demás hayan variado las circunstancias, la abstracción digital también es una naturalización y una despolitización de los hechos digitalizados.

-¿Significa esto que se trata de limitar drásticamente el uso de los instrumentos tecnológicos en el futuro? El peligro es que el solucionismo tecnológico desvíe la atención de esos retos, que son a la vez retos sanitarios y retos de justicia social.

Los medios digitales y algorítmicos no deben excluirse a priori de la lucha contra la pandemia, pero tampoco pueden dispensarnos de estrategias sanitarias más globales. El rastreo puede resultar totalmente ineficaz, por ejemplo, si una parte importante de la población no tiene acceso efectivo a la atención sanitaria (a falta de un seguro universal) y, por tanto, será reticente a solicitar una prueba a fin de conocer su estado serológico.

La mejor manera de luchar contra la pandemia pasa por proteger prioritariamente a las personas más vulnerables socialmente. Identificar estas vulnerabilidades requiere, por supuesto, mucho más que la recogida de señales bluetooth emitidas por los teléfonos móviles. Desde este punto de vista, el rastreo digital aparece como una especie de artilugio: una respuesta tecnológicamente sofisticada a una pregunta mal planteada. El peligro es que el solucionismo tecnológico desvíe la atención de esos retos, que son a la vez retos sanitarios y retos de justicia social.

Cuando se proponen soluciones tecnológicas, conviene prestar siempre mucha atención a que no sirvan para compensar la falta de inversión en los servicios públicos esenciales o en la constitución de reservas estratégicas para hacer frente a lo improbable (contra lo que pretende inmunizarnos la gubernamentalidad algorítmica o el encierro de lo digital sobre sí mismo).

Las instituciones existen precisamente para encargarse del exceso de lo posible por encima de lo probable, es decir, para hacerse cargo de lo irrepresentable o lo incalculable. La gubernamentalidad algorítmica, en cambio, excluye la idea misma de la incalculabilidad –o sea, la interrupción de la fluidez en razón a un futuro incierto–, puesto que pretende neutralizar la incertidumbre. Es tributaria de una fe en la capacidad de este sistema, de este nuevo Leviatán digital, para autorregularse y para metabolizar los sucesos de manera que no causen ni siquiera más sucesos. Sin embargo, esto es una ficción científica de datos: el sueño de un mundo despoblado, de un planeta limpio y muerto, inalterable, impasible, sin ningún organismo vivo, en el que la inteligencia artificial cuente los guijarros, colocándolos y recolocándolos en función de pautas de las que ellas tienen el secreto. Este sueño no es el nuestro y es en otra parte, en la Tierra, donde tenemos que hacer mundo con los seres vivos. Ha sonado el despertador.

-Utilizar los algoritmos predictivos en la gestión de una crisis sanitaria nos sitúa a medio camino entre la protección de la ciudadanía y su vigilancia en el espacio público y en el privado. El ejemplo de la SNCB [ferrocarriles belgas] es ilustrativo: una se pregunta si la inteligencia artificial se emplea para proteger a las y los trabajadores, como anuncia la empresa pública, o para controlar el cumplimiento de las reglas de distanciamiento físico en espacios definidos. ¿Cómo le permite el concepto de gubernamentalidad, surgido de los trabajos de Michel Foucault, aprehender este modo de gobernar y esta tensión entre protección y vigilancia?

Hay que leer una entrevista titulada La seguridad y el Estado (3) que dio Michel Foucault en 1977. Todo el interés de sus manifestaciones se sitúa en lo que determina su inactualidad, una inactualidad que nos obliga a pensar –un poco como si se tratara de detectar, entre dos imágenes aparentemente similares, diferencias más o menos sutiles–, cosa que, en la sociedad de control contemporánea, es realmente inédito. Así, por ejemplo, el pacto de seguridad propio de la sociedad aseguradora (o del Estado de bienestar), que vincula los individuos al Estado, compromete a los primeros a obedecer a cambio de la garantía de su seguridad (incluida su seguridad sanitaria). Cuando años de políticas austeritarias han hecho que los gobernantes hayan perdido la costumbre y los medios de garantizar efectivamente la seguridad y la salud de las y los ciudadanos, esta garantía no aparece hoy más que como un recuerdo de promesas incumplidas. Máxime cuando la gubernamentalidad algorítmica promete un abandono todavía más radical de toda perspectiva de colectivización o de mutualización de los riesgos en beneficio de una hiper individualización por refinamiento y por tanto de una fragmentación virtualmente infinita de las categorías estadísticas.  Nos incumbe identificar lo que promete hoy específicamente el Estado a su población a cambio de su docilidad, de su eventual aceptación de formas (muy atenuadas, dicho sea de paso, si la comparamos con la situación en China, por ejemplo) de vigilancia masiva. ¿Cuál es por tanto actualmente la sustancia del beneficio mutuo?

-Durante el confinamiento hemos visto el poder casi orgánico adquirido por las cifras, curvas y estadísticas sobre la vida. Entonces, la cuestión central ya no es ¿quién asume la carga de gobernar?, sino más bien ¿quién gobierna los algoritmos?

Ciertos intelectuales denuncian el autoritarismo de las medidas sanitarias impuestas a la población y ven en ellas el síntoma de una histeria de supervivencia que se impone en detrimento de la calidad (incluida la calidad política) de vida. ¿Son dichas medidas de naturaleza totalitaria? Foucault explica que “un Estado totalitario en sentido estricto es un Estado en el que los partidos políticos, los aparatos de Estado, los sistemas institucionales, la ideología hacen piña en una especie de unidad controlada de arriba abajo, sin fisura, sin lagunas y sin desvío posible”. Ocurre que lo que experimentamos hoy en día es exactamente lo contrario: se tiene la impresión de que si nuestros gobernantes se encaprichan con las respuestas tecnológicas, es más bien para poder dispensarse de la tarea de gobernar, y por tanto de asumir una autoridad concreta.

Hacer que gobiernen los algoritmos para no tener que asumir la carga de gobernar, es decir, de tomar decisiones que deben sostener y de las que han de rendir cuentas. Durante el confinamiento hemos visto el poder casi orgánico adquirido por las cifras, curvas y estadísticas sobre la vida. Entonces, la cuestión central ya no es ¿quién asume la carga de gobernar?, sino más bien ¿quién gobierna los algoritmos?: ¿cómo se contabilizan los muertos?, ¿a partir de qué distancia entre las señales bluetooth debe considerarse que hay riesgo de contagio? Son cuestiones que son al mismo tiempo eminentemente técnicas, científicas y políticas.

¿Podemos decir que los dispositivos electrónicos implicados en la gestión de la pandemia forman parte de una deriva totalitaria del poder? Foucault concluía su entrevista con estas palabras: “Que la designación del peligro sea el efecto de un poder no autoriza a hablar de un poder de tipo autoritario. Es un poder de nuevo tipo. El problema no estriba en recodificar los fenómenos actuales con los viejos conceptos históricos. Hay que designar, en lo que sucede actualmente, lo que tiene de específico, abordar esta especificidad y luchar contra ella, intentando analizarlo y hallar las palabras y las descripciones que le convienen.”

-Regularmente se acusa a los datos masivos del peligro que suponen los algoritmos predictivos sobre nuestros derechos y libertades. A este respecto, el rastreo de la covid-19 entre la población ha reavivado numerosas inquietudes con respecto al tratamiento de los datos personales. Sin embargo, usted suele matizar, en sus trabajos, el “fetichismo de los datos personales”, subrayando hasta qué punto enmascara todos los retos colectivos de los datos masivos. ¿Cuáles son entonces los retos reales?

El derecho a la protección de los datos personales tiene el mérito, en particular, de ofrecer a la persona la posibilidad de aparecer como sujeto de derecho, más que como (in)dividuo soluble en los datos, o como simple agregado temporal de datos infrapersonales metabolizados a escala industrial. Dicho esto, lo que confiere a las modelizaciones algorítmicas su aura de imparcialidad o de neutralidad axiológica, es precisamente que no conciernen a las personas, que se desinteresan de la singularidad de sus vidas (ya sé, es una nueva bofetada narcisista) en beneficio de lo que relaciona estadísticamente sus atributos discretos con las modelizaciones impersonales, pero predictivas.

Por tanto, lo que está en juego no es la protección de los datos personales, ni siquiera de la vida privada, como la capacidad de decidir colectivamente criterios de mérito, de necesidad, de deseabilidad, de peligrosidad que presiden el reparto de recursos y oportunidades, y de objetarlos. De paso, la yuxtaposición de consentimientos individuales obtenidos separadamente no garantiza en modo alguno el carácter democrático o sostenible de los dispositivos de gubernamentalidad algorítmica. Únicamente las disposiciones colectivas territorializadas pueden permitir a los individuos adquirir la consistencia de sujetos políticos.

El reto estriba en rehacer las disposiciones colectivas de discusión, de enunciación, inclusive con respecto al recurso extremadamente precioso que constituyen las cartografías que permiten los datos masivos: podemos producir una multitud de mapas diferentes, que ofrecen cada vez una perspectiva nueva del mundo y de quien(es) pasan (transcurren) por él, del territorio y la población, para actuar de modo diferente. Son estos mapas los que tienen valor, y no los datos personales. Es el saber que puede inferirse de ellos y que también puede hacer que seamos colectivamente más inteligentes… a condición de no darnos por satisfechos, de formular las buenas preguntas y de asegurar un uso común de ellos.

Notas

1- La ideología técnica de las data sciences (un oxímoron particularmente convincente) podría expresarse del modo siguiente: “Don’t interpret the past, dont’t understand the present, don’t imagine de future: make it all a data science-fiction!” (No interpretes el pasado, no comprendas el presente, no imagines el futuro: haz de todo esto una ficción científica de datos”.)

2-Véase por ejemplo el reciente informe de la Human Technology Foundation titulado Technology Governance in a Time of Crisis – Covid-19 Related Decision Support.

3- “Michel Foucault: la sécurité et l’État” (entrevista con R. Lefort), Tribune socialiste, 24-30 de noviembre de 1977, p. 3-4.

*Fuente: rebelion.or.ar | Artículo publicado y traducido por vientosur.info|(Original  revista N°12 Politique  revue belge d’analyse et débat).