Recomiendo:
3

Solucionismo punitivista, el clima policial perfecto para Vox

Fuentes: El Salto [Fuente: Policía solicitando identificación a varias personas en Madrid, en 2011. Foto: Olmo Calvo / Fronteras Invisibles]

Las tecnologías son dispositivos culturales, fuentes de poder blando e inteligente, que permiten un Estado represivo perpetuar una “economía de libre mercado”

Uno de los síntomas de la penetración de la ideología neoliberal en las instituciones del Estado español se muestra en la delegación de sus funciones fundamentales a las corporaciones. Nublados por esta doctrina económica, las élites del país no han cesado de conceder cuotas cada vez más amplias al poder privado, en el que cada vez destacan más las plataformas tecnológicas. Uno de los ejemplos más importantes, aunque escasamente estudiado, es el de la vigilancia y la seguridad ciudadana.

Bajo la retórica sobre la eficiencia o del ahorro (dogmas del neoliberalismo) y aprovechándose de la falta de claridad jurídica e inactividad de las autoridades públicas, compañías privadas como Eurocop están haciéndose cargo tanto de la infraestructura digital como de las nuevas tecnologías policiales, dando lugar a una suerte de incipiente “Estado Policial 2.0”. Al respecto no solo surgen dudas sobre los oscuros procesos de licitación en incontables ayuntamientos o de la manera en que se adjudican. Sino también sobre la naturaleza de un conjunto de tecnologías, que han sido señaladas como racistas, clasistas o patriarcales por instituciones públicas, cortes judiciales y organizaciones civiles de todo el mundo. Por eso, hoy vamos a adentrarnos en importantes cuestiones que rodean la expansión de lo que hemos llamado solucionismo punitivista.

La historia imperialista y clasista de las tecnologías autónomas

Las tecnologías de policía predictiva, las cuales se han comenzado a testear e implementar en España, forman parte de lo que de manera más amplia se conoce como Sistemas Automatizados de Toma de Decisiones (SATD). De manera simplificada, estas se podrían describir como tecnologías compuestas de potentes algoritmos y vastos datasets destinadas a ofrecer modelos y estimaciones basadas en inferencias estadísticas y cálculos matemáticos. Estos sistemas están siendo ampliamente utilizados por agentes públicos, en estrecha alianza con el sector privado, para llevar a cabo tareas tan diversas como la predicción de terremotos, la asignación de crédito hipotecario o la concesión de ayudas y prestaciones sociales. Más allá del tecnooptimismo imperante, lo cierto es que existe un amplio reconocimiento del potencial que tienen estas tecnologías, por ejemplo, para permitir una asignación de recursos más justa y eficiente (esto es, una planificación económica progresista), sin depender de estructuras centralizadas y burocratizadas. Obviamente, como cualquier otra tecnología, los SATD no están exentos de ideología ni de carga política.

A pesar de su aspecto vanguardista y futurista, la historia de los sistemas automatizados de toma de decisiones se remontan a los avances del método estadístico y de la recopilación masiva de datos, acelerada durante los siglos XIX y XX. De manera más específica, la génesis de los sistemas de policía predictiva se encuentra, junto con los de la criminología, en los sistemas de dominio colonial, clasista y racial de los Imperios Británicos y del segregacionismo estadounidense. Siguiendo una lógica capitalista y determinista, estos regímenes consideraban que el cuestionamiento de la autoridad y el delito no respondía a causas sociales o económicas, sino a decisiones individuales. Por lo tanto, dicha aproximación a la cuestión de la criminalidad no consideraba como objetivo ulterior un reparto equitativo de la riqueza o la reinserción, sino que apostaba por el puro y simple punitivismo. Esta inspiración ideológica, unida al creciente descontento social y a masivos movimientos poblacionales (entre 1880 y 1930 llegaron a Estados Unidos cerca de 30 millones de inmigrantes) derivó en una carrera hacía la vigilancia, la represión policializada y a su tecnificación. 

Estos sistemas de dominación se afanaron en crear sistemas de recopilación y clasificación de los datos de sus poblaciones, fuertemente subalternizadas. Por mencionar un conocido ejemplo, el sistema aún vigente de identificación mediante huella dactilar surgió como herramienta de control colonial británica en la India. Afín de perfeccionar sus técnicas de dominación, los diferentes gobiernos financiaron investigaciones en diversos campos, perfeccionándose ciencias como la criminología (conocido es el determinismo biológico del racista Cesare Lombroso), la sociología (pensemos en la ecología humana de la escuela de Chicago) o la computación (IBM comenzó su andadura clasificando detenidos y continuó perfeccionándose entre otros junto al régimen nazi con el que colaboró). En resumen, la andadura y puesta en marcha de estas ciencias tiene un largo recorrido junto a los cuerpos policiales de países capitalistas, más interesados en vigilar y castigar que en emprender reformas equitativas.

El segundo gran momento de expansión de las técnicas de vigilancia y dominación tecnologizadas corre de la mano del surgimiento y expansión del neoliberalismo en los Estados Unidos. Por un lado, los seguidores de esta doctrina buscaban recortar el peso del Estado, aumentando con ello exorbitantemente el gasto público, y emprendiendo una alocada carrera de recortes en servicios públicos. Por otro lado, el neoliberalismo exacerbó los rasgos punitivistas y racistas de los regímenes anteriores, dando comienzo a las llamadas iniciativas de War on Crime y War on Drugs, es decir, el uso indiscriminado de tecnologías militares en la vida civil y el comienzo de la era de la encarcelación masiva. Junto a este interés por recortar y externalizar la prestación de servicios públicos, castigando así a las poblaciones subalternas, concurrieron diversos avances técnicos y científicos que permitirían la ubicuidad de ordenadores personales, aumentando a su vez el potencial procesamiento computacional de datos.

Pensemos en dos ejemplos actuales dentro de los sistemas policiales de predicción de delitos que lo atestiguan. Por un lado, la calidad de un SATD no depende solo del algoritmo, sino de los datos que lo alimentan. Tal y como han señalado activistas, e incluso cortes judiciales en Estados Unidos y el Reino Unido (países donde estas tecnologías están más extendidas), los datasets generados por la policía reflejan los prejuicios clasistas y prácticas racistas ampliamente extendidas en los cuerpos de seguridad. El hecho de que una persona considerada como latina o afroamericana tenga entre un 25% y un 50% más de probabilidad de ser detenido, o registrado, resulta en un mayor volumen de detenciones por causas relacionadas con drogas, lo que no se corresponde con la práctica delictiva real. En este sentido, un estudio arrojado por el Washington Post también destaca que la población blanca trafica más. Y no al revés.

En suma, el problema subyacente es que buena parte de los crímenes cometidos por las clases más privilegiadas no son considerados como tales, sino que suelen entenderse como infracciones o faltas administrativas. El sesgo a nivel de calle, o el que viene determinado por la estructura legal, contribuye a crear unos datasets distorsionados, donde figuran desproporcionadamente los colectivos racializados. Los algoritmos alimentados por estas series estadísticas asignan un mayor riesgo de comisión de delitos a individuos y poblaciones racializadas o empobrecidas, afectando seriamente, entre otras cosas, a la asignación de zona de patrulla o las recomendaciones sobre la concesión de libertad condicional a un sujeto. Los datos sesgados obtenidos por actuaciones policiales racistas derivan en nuevas decisiones algorítmicas racializadas, alimentando un círculo vicioso, oculto tras el velo de la falsa neutralidad tecnológica. Por tanto, la novedad es que las soluciones tecnológicas punitivas han dejado de estar reducidas a la criminalización de los migrantes en las fronteras externas de los países, aplicándose también en el interior de los Estados, ahora contra las clases proletarias.  

¿Algoritmos para la reafirmación de la fuerza del Estado o la uberización de la policía?

Para los regímenes neoliberales, como el del Estado español, la pobreza o la mala conducta cívica son problemas a resolver mediante solucionismo tecnológico y violencia organizada. En otras palabras: “los ‘solucionistas punitivos’ utilizan la vasta infraestructura de vigilancia del capitalismo digital para frenar nuestras actividades diarias y castigar cualquier transgresión”. Un Estado fuerte, duro, represivo… es la forma mágica de los capitalistas para perpetuar una “economía de libre mercado” en el neoliberalismo tardío. En este sentido, las tecnologías son dispositivos culturales, fuentes de poder blando e inteligente, que permiten a esta fórmula mágica tener éxito.

¿Alguien puede imaginarse el peligro que tiene diseñar y desarrollar tecnologías cuyo uso racista y punitivista ha sido ampliamente demostrado para solucionar problemas sociales y políticas en un momento en que los partidos filofascistas, al estilo Vox, están adquiriendo cada vez más peso, no ya en el Estado, sino en los distintos ayuntamientos y comunidades autónomas? En un momento en que los Cuerpos de Seguridad del Estado se están radicalizando en la dirección de este partido, ¿alguien cree que es una buena idea dotarles de tecnología predictiva para continuar su agenda de culpar a los migrantes de problemas que provoca el capitalismo? Y, por último, ¿no son las fuerzas reaccionarias y las tecnologías predictivas parte del mismo fenómeno interno del capitalismo, que trata de  asegurar su supervivencia?

Además de las consideraciones más sociológicas y relacionadas con la ciencia política sobre el papel del Estado en el capitalismo español, también existen otras cuestiones en las que podemos fijarnos para delimitar los peligros de continuar usando tecnologías racistas en un clima como el actual. Los estudios señalan que discursos como el del “inmigrante peligroso”, extremadamente asentado en la prensa generalista, no sólo proporciona una justificación moral para vigilar a los migrantes o a las poblaciones pobres, sino que está contribuyendo a cambiar el sistema tradicional de prevención del delito dentro del propio estado nacional. A su vez, la propaganda ultraderechista vincula la migración con crisis socioeconómicas, desórdenes o incluso delitos, incrementando la vigilancia policial de los migrantes (especialmente, en las  fronteras o en las abundantes redadas callejeras), pero también cambia progresivamente el foco de interés político o burocrático hacia acciones anticipatorias, imponiendo así la lógica de precaución, la anticipación y la preparación ante posibles ataques a la seguridad nacional. 

Esta tendencia no es perceptible en los discursos reaccionarios, sino que también puede encontrarse de una manera más sutil en las sesiones de tecnología predictiva sesgadamente punitivas celebradas con la Guardia Civil, la Policía Nacional, Ertzaintza, Mossos d’Esquadra y Policía Foral de Navarra. También en las declaraciones de las distintas patas de los Cuerpos de Seguridad. En España, por ejemplo, la Policía Nacional ha recurrido a los algoritmos para hacer más eficiente y efectivo el trabajo de sus agentes, indicando que Veripol, una herramienta que detecta denuncias falsas de robos, tiene un 90% de efectividad. Las tecnologías de este tipo también se naturalizan y divulgan en artículos de prensa, sin ninguna referencia histórica, para indicar que pueden predecir todo tipo de crímenes. Incluso desde las voces académicas dentro del Consejo de Estado y la Secretaría de Estado de Seguridad se ha señalado “los beneficios que puede reportar la aplicación de modelos predictivos en la gestión de los recursos policiales”. Nos referimos al recién ascendido a Coordinador de Innovación Tecnológica y Ciberseguridad del Cuerpo Nacional de Policía.

A pesar del manto de cientificidad y de neutralidad con la que se quieren cubrir estas aparentemente nuevas tecnologías desde todos los frentes, lo cierto es que portan una carga política excepcional, estando firmemente ancladas en la ideología clasista y racista que envolvió el War on Drugs de los Estados Unidos. Por ejemplo, uno de los más insignes abanderados del partenariado público-privado en materia policial en España es el colaborador de Eurocop y actual Jefe de Policía de Palma, Jose Luís Carque. A esta privatización, criminalización de la pobreza y automatización de la represión se le ha venido a denominar, no sin cierta ironía, como de “participación vecinal” por medio de “policía de proximidad”. Conocido como programa Proxpol, según la prensa levantina representa “una nueva filosofía de intervención policial de acercamiento al ciudadano.” 

No obstante, una lectura atenta de la propia documentación de Eurocop describiendo el programa Proxpol revela que el modelo que proponen estos teólogos de la policía predictiva no es otro que de la policía de Nueva York, uno de los cuerpos policiales más señalados por su racismo y clasismo estructurales. Huelga decir que este cuerpo es también uno de los mayores clientes globales de compañías de software predictivo, cuyo uso, por cierto, no ha hecho sino acrecentar las denuncias por racismo.

Como vemos, las aplicaciones predictivas vienen a ofrecer soluciones digitales (esto es, fórmulas matemáticas) a problemas sociales, abriendo la puerta a la privatización y mercantilización de cruciales funciones públicas.  Tal y como hemos detallado, cuerpos de policía de toda España se han lanzado a implementar muchas de estas tecnologías sin ni siquiera contar con una cierta claridad jurídica. Por mencionar algunos vacíos que llaman la atención, no contamos con un procedimiento real que obligue a las administraciones a evaluar el impacto social de los algoritmos. Tampoco con una agencia que supervise, de seguimiento y evalúe los algoritmos corporativos, usados por los cuerpos policiales. Desconocemos el alcance real de la extensión de software predictivo y de reconocimiento automatizado entre los cuerpos de policía. Ahora bien, contamos con otra serie de evidencias empíricas que ni siquiera se han analizado en el debate público.

Como muestran los estudios criminológicos, el éxito de los enfoques predictivos dependen en buena medida de la determinación y precisión de las medidas represivas o preventivas policiales que siguen al pronóstico algorítmico, no sólo de la tecnología utilizada. De este modo, la cabeza de un miembro de cualquier cuerpo policial, esas que como hemos visto en las últimas semanas han decidido dar palizas a civiles en función de su atuendo, se convierte en una caja negra.

Pongamos que las evaluaciones de riesgo de un sistema predictivo pueden ofrecer varios tipos diferentes de resultados, los cuales serán aplicados en términos de equidad o de precisión. De hecho, expertos en criminología sostienen que no puede haber ninguna solución técnica que tenga en cuenta todas las opciones y dicotomías. Y menos si tenemos en cuenta la agencia de los agentes. En base a distintos hallazgos académicos, también puede afirmarse que la capacidad del software predictivo para neutralizar la subjetividad del trabajo policial suele pasar por alto las luchas en curso del oficial de policía de turno para evitar que se uberice su trabajo y mediar así en las predicciones. Esto significa que el policía se reconoce como un trabajador, el cual es más proclive a seguir órdenes del patrón, superior en el cuerpo y con una ideología determinada, que a obedecer al algoritmo. Ahora bien, el hecho de obviar las predicciones algorítmicas sobre una decisión policial no significa que un miembro del cuerpo pueda tener acceso a una cantidad enorme de datos y técnicas de vigilancia personalizadas. De hecho, esta es la ventaja que ofrecen empresas como Eurocop, cuyo negocio principal es el software policial.

Por lo tanto, si bien algunas predicciones indican que las fuerzas policiales profesionales no tienen por qué ser una característica inevitable o permanente de los sistemas de justicia penal del futuro, cabe reflexionar sobre lo que podría permitir que ambos (humano y máquina) coexistan pacíficamente, en lugar de aceptar la erosión de los Cuerpos del Estado. Por otro lado, existen procesos históricos que, al menos en España, nos indican que la policía no será sustituida por un algoritmo. En todo caso, como alertan distintos estudios, asistiremos al auge de un estado cada vez más gerencial, asentado sobre la vigilancia policial preventiva excesiva, que incluso puede amenazar la relación que la ley debe mantener con los sujetos jurídicos.

Ese proceso de dataficación y automatización de la seguridad se está desarrollando en la sombra. La inclusión de tecnologías predictivas, de reconocimiento biométrico, y de gestión masiva de datos por parte de cuerpos policiales requiere la apertura de un debate público transparente, que lanze sin temor preguntas de relevancia. ¿Hasta qué punto es legal o deseable que este tipo de tecnologías pasen a formar parte del día a día de la policía? ¿Se trata de medidas proporcionadas y adecuadas a la finalidad de estos cuerpos o por el contrario suponen una injustificada violación de derechos fundamentales y de delegación de funciones a un software privado? ¿En qué medida queremos que agencias privadas suplanten importantes funciones públicas? ¿Quién supervisará y monitorizará el desenvolvimiento de estos algoritmos? ¿Ante quién puede acudir la ciudadanía para ejercitar sus derechos ante posibles casos de discriminación algortímica a manos de la policía? ¿Quién será el responsable por las posibles consecuencias negativas de los mismos?

No someter estos desarrollos al escrutinio democrático de la sociedad civil y de las instituciones es profundamente antidemocrático y tremendamente peligroso. Aunque, teniendo en cuenta la historia de este país, ¿a quién le puede extrañar semejante desenlace?

Fuente: https://www.elsaltodiario.com/policia/solucionismo-punitivista-eurocop-clima-policial-perfecto-para-vox