Recomiendo:
0

Facebook en crisis

Fuentes: La Diaria

Mark Zuckerberg, CEO de la compañía que está en el ojo de la tormenta, finalmente habló. Lo hizo el miércoles 21, en una actualización de estado en su propia cuenta -de acuerdo a los datos proporcionados por la geolocalización, fue desde el cuartel general de la compañía, ubicado en Menlo Park-. Pocos días antes, The […]

Mark Zuckerberg, CEO de la compañía que está en el ojo de la tormenta, finalmente habló. Lo hizo el miércoles 21, en una actualización de estado en su propia cuenta -de acuerdo a los datos proporcionados por la geolocalización, fue desde el cuartel general de la compañía, ubicado en Menlo Park-. Pocos días antes, The Guardian y The New York Times, dos de los periódicos más importantes del mundo anglosajón, habían revelado que Cambridge Analytica, una empresa involucrada en la campaña presidencial de Donald Trump, tuvo acceso a la información personal de 50 millones de personas para el diseño de una campaña microsegmentada, que incluía el uso selectivo de las llamadas fake news. La mera publicación de la noticia provocó un desplome de 37.000 millones de dólares del valor de la compañía y sus esquirlas continúan impactando por medio del debate público que le siguió.

No fue una filtración, estúpido

Zuckerberg asumió la responsabilidad por el escándalo. Confirmó, además, algo que muchos comunicadores habían señalado en la última semana: no se trató de una falla de seguridad, sino de un aprovechamiento («desleal», se defiende) de las propias pautas establecidas por el gigante informático para las aplicaciones que funcionan dentro de la plataforma. El modo en que Cambridge Analytica obtuvo los datos fue a partir de una aplicación llamada «This is Your Digital Life», diseñada por el investigador moldavo Aleksandr Kogan. En 2013, bajo la apariencia de un juguetón test de personalidad, con una interfaz amable y divertida, la app de Kogan se sirvió de Facebook para solicitar y obtener el acceso completo a los perfiles de cientos de miles de usuarios. La app fue instalada por 300.000 personas, pero hasta 2014 Facebook permitía que las aplicaciones pudieran acceder también a datos de los amigos de quienes las instalaban, sin que estos fueran consultados. Luego la empresa de Kogan (Global Science Research) vendió esa base de datos a Cambridge Analytica, también acusada de hacer campañas sucias a favor del brexit. O sea que, con una ingeniosa táctica, los desarrolladores pudieron usar la información obtenida en la red social para violar la privacidad de grandes masas de personas. La cantidad de información adquirida por Kogan y por Cambridge Analytica permite la construcción de perfiles sociodemográficos cada vez más específicos y enviar a cada persona un mensaje de asombrosa pertinencia para conquistar su voluntad.

Muchos medios de comunicación comentan el caso de Cambridge Analytica denominándolo como una «filtración». No se trata de una «filtración», sino del aprovechamiento por parte de los desarrolladores de software de las redes sociales tal como son; mejor dicho, para lo que fueron diseñadas. En su descargo, Zuckerberg deja bien claro que Kogan nunca necesitó un permiso especial de Facebook. Las aserciones de Kogan ante la prensa son más contundentes: «Mi visión es que básicamente estoy siendo usado como un chivo expiatorio tanto por Facebook como por Cambridge Analytica. Honestamente, creíamos que estábamos actuando de manera apropiada. Creíamos que lo que hacíamos era normal […]. Lo que hizo Cambridge Analytica fue usar información de Facebook para llevar un contenido específico a un consumidor; ese es el principal uso que se hace de los datos».

Si se toma en su conjunto, el caso ilumina un proceso que ya sospechábamos posible, poniéndole nombre y apellido. Nos enteramos de lo ocurrido en este caso, pero ¿qué pasa con todas las demás aplicaciones (no sólo las que se usan dentro de Facebook)? ¿Quién las controla? El hecho invita a pensar de manera transversal en nuestra interacción con las aplicaciones en toda nuestra vida cotidiana, incluyendo las gubernamentales, que prestan servicios para los ciudadanos, que cuando uno las instala suelen pedir una serie de permisos que no se vinculan en absoluto con el uso de la app en sí. La mayoría de los parlamentarios están lejos de poner en discusión este asunto.

Según Zuckerberg, no fue sino hasta 2014 (como señalábamos antes), siete años después de la apertura de la plataforma a otras aplicaciones, que se establecieron criterios mínimos de seguridad para prevenir el uso indebido de datos personales, los cuales no impidieron que la campaña de Trump siguiera teniendo acceso a los perfiles de esos millones de personas. El paradigma establecido entonces se mantuvo hasta este momento, en que se tomarán nuevas medidas para, ahora sí, proteger realmente a los usuarios. Por otro lado, Facebook anuncia que investigará a todos los «terceros» que dispusieron masivamente de datos personales, lo que no quiere decir otra cosa que, tal como afirma Kogan, hay muchos casos como el de Cambridge Analytica dando vueltas.

Hasta aquí la historia oficial. Pero una lectura apenas atenta despierta varias preguntas: ¿por qué Facebook abrió indiscriminadamente su plataforma a la recolección de datos por agentes externos? ¿Cuáles fueron las regulaciones que estableció en su momento y por qué fracasaron? Y, principalmente, ¿son las aplicaciones (maliciosas) el único problema que debe preocuparnos?

Una serie de eventos desafortunados

Un mes antes de que Facebook llegara a la tapa de todos los diarios del mundo, cierto público especializado tomó conocimiento con alto grado de detalle de las fisuras que venía demostrando la compañía en torno a su capacidad de influencia en la opinión pública, mediante una extensa crónica publicada por la revista Wired.

La estrecha relación entre Facebook, la circulación de noticias y la política no es el producto de una simple evolución natural. Se trató de una decisión corporativa abiertamente orientada a desplazar la amenazante competencia que representó en su momento Twitter, otorgando preferencia a los enlaces dirigidos a medios de comunicación, en un primer momento, y permitiendo alojar sus contenidos directamente en la plataforma después. La paradoja no tardó en irrumpir: si Facebook privilegiaba unas noticias sobre otras estaría violando su principio de neutralidad, pero si otorgaba igual relevancia a todas, implícitamente asumía una línea editorial que colocaba al mismo nivel de las fuentes más respetables las informaciones tendenciosas, banales e incluso falsas. De hecho, el intento de establecer criterios de relevancia por medio del proyecto Trending Topics generó rápidamente sospechas en el Partido Republicano de tendenciosidad pro demócrata y cayó en desgracia. Por otra parte, el sensacionalismo probó ser un factor de incremento de tráfico en la plataforma, es decir, de mayores ganancias. No había incentivo alguno para contenerlo.

Otras iniciativas fueron surgiendo a medida que el asunto se replanteaba mediante nuevos episodios. Luego de la victoria de Trump, por ejemplo, se establecieron mecanismos más claros para reportar publicaciones y exigir chequeos de información. Otros problemas, en cambio, fueron desestimados, como la llamada filter bubble -la tendencia a mostrarnos contenidos que refuerzan nuestras creencias previas-. Seis meses después de la elección, Facebook sufrió el impacto más grande de su trayectoria (hasta ahora) con la fuerza de un misil: la revelación de que hackers rusos (organizados por la Agencia de Investigación de Internet de ese país) habían hecho un uso deliberado de la plataforma para influir en las elecciones estadounidenses. Según la citada publicación de Wired, la preocupación por no ser acusado de tendenciosidad inhibió a Facebook de percibir y prevenir esta ostensible intromisión foránea.

Mientras tanto, una variopinta coalición de periodistas como Emily Steel, investigadoras como Renée DiResta, ex inversores o ejecutivos de Facebook y Google como Roger McNamee y Tristan Harris, y activistas como Edward Snowden había desarrollado un arsenal de críticas tendientes a echar luz pública sobre la compañía. La influencia rusa determinó la comparecencia de altos ejecutivos de Facebook, Google y Twitter ante el Congreso de Estados Unidos, pero los CEO se salvaron. Con el caso de Cambridge Analytica, Zuckerberg no se salvaría. Fue citado por la Comisión de Asuntos Digitales del Parlamento Británico y otros ejecutivos de su compañía deberán hacerlo ante el Congreso estadounidense. La relación entre estos monopolios de datos y la política está cambiando rápidamente en los últimos meses, como lo demuestra el reciente acuerdo de la Comisión Europea con Google, Facebook y Twitter para implementar una serie de regulaciones, aunque en Latinoamérica esto parece ser una posibilidad lejana.

Los cambios al algoritmo al inicio de 2018 constituyen una respuesta tardía a toda esta trama, especialmente en torno a la injerencia rusa en las elecciones norteamericanas. El algoritmo de Facebook (EdgeRank) es aquel que regula y organiza la información que vemos en nuestro newsfeed (o página de inicio). Según se informó, Facebook ya no se limitará a privilegiar el contenido que potencie el engagement a secas, sino las «interacciones significativas». Esto pone al contenido de familia y amigos por encima de las noticias, nuevamente. ¿Golpe a los medios? Casi en simultáneo, anunció que potenciará abiertamente a ciertas fuentes de información «confiables» y «locales». Inmediatamente, por ejemplo, las acciones de The New York Times se dispararon. No faltan las alertas de que el efecto será una discriminación hacia los medios alternativos, como ya sucede con Google. Pero otros suponen que todo el affaire Cambridge Analytica se inscribe en la larga confrontación entre Facebook y los medios de comunicación, que le pasan factura por haber absorbido la gran torta publicitaria.

Extractivismo de datos

Si el nuevo algoritmo presume ser el antídoto contra las fake news y las burbujas de odio, las medidas anunciadas esta semana deberían prevenir la recolección de datos significativos por agentes externos a la compañía. A partir de ahora, según Zuckerberg, las aplicaciones podrán acceder, con consentimiento del usuario y previo contrato con Facebook, solamente a nuestro nombre, foto de perfil y correo electrónico. Así de sensato como suena, la pregunta es por qué no se había hecho antes.

De hecho, ya en 2010, The Wall Street Journal denunció a la empresa RapLeaf por obtener datos personales de los votantes en las primarias de New Hampshire mediante aplicaciones de Facebook. Ocurre que, precisamente, la posibilidad de recolectar información de manera directa era en buena medida lo que hacía de Facebook una herramienta muy atractiva -y por lo tanto, una fuente de recaudación millonaria para la empresa-. Facebook se ponía a salvo en sus términos y condiciones prohibiendo el uso posterior de los datos, lo que es obviamente imposible de controlar.

Obligado por las circunstancias, Facebook promete ahora ocuparse de «proteger» nuestros datos. Esto implica que con una configuración adecuada de privacidad, nuestra información personal está a salvo de terceros (no de Facebook, que por ejemplo utiliza nuestros contactos de Whatsapp para sugerirnos amistades en la plataforma). Ahora bien, un abordaje de estas características pasa por alto lo más elemental.

El modelo de negocios de Facebook se basa en la venta de publicidad. Su ventaja comparativa es una altísima efectividad: los anuncios serán relevantes para las personas que los vean, lo que se traducirá en una alta tasa de interacciones (incluyendo transacciones comerciales) con el producto. ¿Cómo se logra esto? Recopilando masivamente datos de los usuarios, tanto los ingresados voluntariamente como los que se desprenden del análisis de su comportamiento virtual. En otras palabras, información sociológica en gran escala. Facebook pone a disposición de los anunciantes un conjunto de variables que permitirán dirigirlos al público que mejor se ajusta a sus criterios. Facebook extrae información de los usuarios, basado en los datos que ingresan voluntariamente y los que generan de manera inconsciente, para ponerla a disposición de terceros. Para eso está diseñada esta plataforma, y allí radica la fuente de sus ganancias. Quizá sea necesario aclarar una confusión: los usuarios son la materia prima de Facebook, y los clientes son los anunciantes. Para ganar más, necesita exprimir más la materia prima y multiplicar los anunciantes. Esto naturalmente desincentiva cualquier pretensión de controlar o limitar a «terceros», lo que por otra parte es imposible a partir de determinado punto.

Si de este modo se han hecho enormemente más eficientes las técnicas de marketing, no debería sorprender que esto se extienda a la comunicación política y a la difusión de información intencionada. Evgeny Morozov, un agudo analista de las nuevas tecnologías, se pregunta por qué condenamos el uso del «extractivismo de datos» para vendernos malas políticas, cuando al mismo tiempo lo celebramos para vendernos productos basura.

Problemas del capitalismo del siglo XXI

Las innovaciones más recientes o proyectadas de la red social apuntan a mitigar algunos efectos indeseables de esta realidad, pero de ninguna manera a modificarla de raíz. En respuesta, han surgido propuestas que pueden sonar extravagantes, como el arancelamiento de la plataforma para los usuarios. En realidad, ese es el modo en que ya funcionan Netflix o Spotify (aunque tampoco sabemos si los datos son utilizados fuera de la plataforma, con otros fines).

Las alternativas que se abren parecen más acotadas. El 18 de febrero, a raíz de una broma misógina a costa de ella, la cantante Rihanna convocó a sus seguidores a desinstalar sus cuentas de Snapchat, lo que le provocó a la empresa una caída bursátil cercana a 5%. A raíz de la crisis por la injerencia rusa, el actor Jim Carrey también había cerrado su cuenta de Facebook e instado a los inversores a salirse de la plataforma. Pero en estas horas, sus temores deben estar más cerca de las aguas bursátiles que de las interpelaciones de los políticos. La confianza lo es todo. Brian Acton, el fundador de Whatsapp, que vendió su compañía a Facebook el año pasado, tuiteó: «Es hora. #eliminarFacebook».

En cualquier caso, es evidente que la solución no puede ser cerrar las cuentas en las redes sociales. Eso es, a lo sumo, una respuesta personal y fragmentaria a un asunto colectivo de trascendencia. ¿Qué sigue después? ¿Dejar de hacer búsquedas en Google, no tener cuenta de e-mail ni usar WhatsApp? Es prácticamente impensable, y por otro lado, en muchos casos trabaría la posibilidad de progresar en materia de inteligencia artificial, algo que en muchas instancias constituye la posibilidad de un mayor bienestar para la población. En principio, el problema no debería ser el mayor conocimiento de la sociedad (como generalización del mayor conocimiento de la actividad de los usuarios) sino que seamos conscientes de esta recopilación de datos, cuestionando quiénes se apropian de ese conocimiento y con qué fines.

En este punto, Morozov acierta al decir que no cree que «podamos resolver todos los problemas que Google, Facebook y otros plantean al usar las herramientas tradicionales de regulación del mercado, es decir, haciéndoles pagar impuestos y aplicando leyes antimonopolio». Según él, «esta industria digital tiene el poder de transformar profundamente todos los demás mercados, sería ingenuo creer que los datos no alterarán fundamentalmente las áreas de salud, transporte, educación […] no todo es negativo. No hay nada de malo en detectar el cáncer antes con los datos, pero no deberíamos hacerlo dando tanto poder a las compañías de Silicon Valley que son propiedad de unos pocos multimillonarios». Es un punto de partida para pensar los nuevos problemas que trae el capitalismo del siglo XXI.

Fuente: http://findesemana.ladiaria.com.uy/articulo/2018/3/facebook-en-crisis/

Rebelión ha publicado este artículo con el permiso del autor mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.