Recomiendo:
0

Lo que internet esconde

Fuentes: www.internazionale.it

Traducido por nemoniente

Pocas personas se han percatado del post aparecido en el blog oficial de Google el 4 de diciembre de 2009. No buscaba llamar la atención, ninguna declaración llamativa ni anuncios impactantes de Silicon Valley, solo unos pocos parágrafos ensartados entre la lista de las palabras más buscadas y una actualización sobre el software financiero de Google. Pero no ha escapado a todos. El blogger Danny Sullivan analiza sempre cuidadosamente el post de Google para tratar de averiguar cuáles son los próximos proyectos de la empresa californiana y lo ha encontrado muy interesante. Ha escrito que se trataba del «cambio más grande jamás acaecido en los motores de búsqueda». Bastaba el titulo para enterderlo: «Busquedas personalizadas para todos».

Google usa actualmente 57 indicadores -desde el lugar en que estamos al navegador que estamos usando al tipo de busqueda que hemos hecho- para averiguar quiénes somos y qué sitios visitamos. También cuando no estamos conectados, continúa personalizando los resultados y mostrándonos las páginas sobre las que probablemente clicaremos. Normalmente se piensa que haciendo una búsqueda en Google todos obtenemos los mismos resultados, aquellos que según el famoso algoritmo de la empresa PageRank tienen mayor relevancia en relación a los términos buscados. Pero desde diciembre de 2009 ya no es así. Hoy vemos los resultados que según PageRank nos son más apropiados, mientras que otras personas ven otros completamente diferentes. En pocas palabras, Google no es igual para todos.

No es difícil darse cuenta de la diferencia. En la primavera de 2010, mientras la plataforma Deepwater Horizon vertía petroleo en el golfo de México, pedí a dos amigos hacer la misma búsqueda en Google. Ambos viven en el noreste de Estados Unidos y son dos personas muy similares, de raza blanca, educados y de izquierdas. Los dos buscaron «BP», consiguiendo resultados muy diferentes. Uno encontró información sobre las inversiones relacionadas con BP y otroa noticias. En un caso, la primera página de resultados de Google contenía los links sobre el incidente en el golfo; en el otro no aparecía nada sobre el tema, solo una publicidad de la compañía petrolifera. Incluso el número de resultados era diferente: 180 millones y 139 millones. Si las diferencias entre dos personas de izquierda de la costa este eran tan grandes, imaginémonos cuánto lo serán, por ejemplo, respeto a las de un viejo republicano de Texas o las de un hombre de negocios japonés.

Ahora que Google está personalizado, la investigación sobre «células madre» probablemente dé resultados diametralmente opuestos para los científicos que son favorabls a su estudio y para quienes estén en contra. Escribiendo «cambio climático», un ecologista y el dirigente de una compañía petrolífera obtendrán respuestas diferentes. La mayoría de nosotros cree que los motores de busqueda son neutrales pero probablemente lo pensamos porque nos son impuestos para secundar nuestras ideas. La pantalla del ordenador cada vez mira más por nuestros intereses mientras los analistas de los algoritmos observan todo lo que cliqueamos. El anuncio de Google marca el punto de inflexión de una revolución importante pero casi invisible de nuestro modo de consumir la información. Podríamos decir que el 4 de diciembre de 2009 comienza la era de la personalización. Dime lo que quiero El mundo digital está cambiando, discretamente y sin hacer demasiado ruido. Lo que hace un tiempo era un medio anónimo en el que todos podían ser cualquiera – en el que nadie sabe si eres un perro, como decía una famosa viñeta del New Yorker [iii] – ahora es una forma de recoger y analizar muestros datos personales. Según un estudio del Wall Street Journal, los cincuenta sitios más populares del mundo, desde CNN a Yahoo!, a MSN, instalan una media de 64 cookies y beacons cargados de datos sobre nosotros. Si buscamos una palabra como «depresión» en un diccionario online, el sito instala en nuestro ordenador hasta 223 cookies y beacons que permiten a otros sitios invadirnos con publicidad de antidepresivos. Si hacemos una búsqueda sobre la posibilidad de que nos engañe nuestra esposa, seremos acosados por anuncios sobre tests de ADN para determinar la paternidad de nuestros hijos. Hoy la red no solo sabe si eres un perro, sino también la raza, y la comida que tiene que venderte.

La carrera por saber lo más posible de nosotros está ahora en el centro de la batalla del siglo entre gigantes como Google, Facebook, Apple y Microsoft. Como ha explicado Chris Palmer de la Electronic Frontier Foundation, «el servicio parece gratuito, pero lo pagamos con información sobre nosotros. Información que Google y Facebook están dispuestos a convertir en dinero». Incluso siendo herramientas útiles y gratuitas, Gmail y Facebook también son eficientes y máquinas voraces para extraer información, donde revelamos los detalles más íntimos de nuestras vidas. Nuestro iPhone sabe exactamente dónde vamos, a quien llamamos, qué leemos. Con su micrófono integrado, el giroscopio y los gps, es capaz de entender saber si estamos paseando, nos encontramos en el coche o en una fiesta.

Aunque Google , hasta ahora, ha prometido no revelar nuestros datos personales, otros sitios y aplicaciones populares no lo garantizan. Detrás de las páginas que visitamos se esconde un enorme mercado de información sobre lo que hacemos on line controlado por sociedades que recopilan datos poco conocidos pero muy rentables, como BlueKai y Acxiom. Solo Acxiom ha acumulado una media de 1.500 informaciones, -desde la capacidad de crédito a los medicamentos comprados on line- sobre cada persona de su base de datos, que incluye al 96% de los estadounidenses. Y cualquier sitio web, no sólo Google y Facebook, puede ahora participar en el banquete.

Según los agentes de «los comportamientos de mercado», cada clic es una mercancía y cada movimiento de nuestro ratón puede venderse en unos pocos microsegundos al mejor postor. Como estrategia de mercado, la fórmula de los gigantes de internet es simple: cuanta más información personal son capaces de ofrecer, más espacios publicitarios pueden vender, y más probabilidades de que compremos los productos que se nos muestran. Es una fórmula que funciona. Amazon vende miles de millones de dólares intentando prever lo que puede interesar a los consumidores y volcando los resultados en su tienda virtual. Más del 60% de las películas descargadas o de los dvd alquilados en Netflix depende de las hipótesis que el sitio se hace sobre las preferencias de cada cliente.

Según la directora operativa de Facebook, Sheryl Sandberg, dentro de tres, o cinco años como máximo, la idea de un sitio no personalizado parecerá absurda. Uno de los vicepresidentes de Yahoo!, Tapan Bhat, coincide: «El futuro de la web es la personalización. Hoy la web habla en primera persona. La red debe ser inteligente y a la medida de cada usuario». El exadministrador de Google, Eric Schmidt, declara con entusiasmo: «el producto que siempre he querido crear» es un código que «imagine lo que voy a escribir». Google instantáneo, que anticipa lo que queremos buscar mientras escribimos, fue lanzado en el otoño de 2010, y es sólo el comienzo. Según Schmidt los usuarios quieren que Google «diga lo que deben hacer después».

Si fuera sólo una forma de vender publicidad orientada, no sería tan grave. Pero la personalización no condiciona sólo lo que compramos. Para un porcentaje creciente de usuarios, los sitios de noticias personalizadas como Facebook se están convirtiendo en fuentes de información fundamental: el 36% de los estadounidenses menores de 30 años lee las noticias en las redes sociales. Como dice su fundador, Mark Zuckerberg, Facebook es quizás la mayor fuente de noticias del mundo (al menos por lo que respecta a una cierta idea de «noticias»). Pero la personalización no está condicionando el flujo de la información sólo en Facebook: actualmente servicios como Yahoo y News e News.me, lanzado por el New York Times, adaptan las noticias a nuestros intereses y deseos particulares.

La personalización interviene también en la selección de los videos que vemos en YouTube y en los blogs, influye en el correo electrónico que recibimos, sobre potenciales parejas que encontramos en OkCupid y en los restaurantes que nos recomienda Yelp. La personalización puede determinar no sólo con quién salimos, sino también a dónde vamos y qué hablamos. Los algoritmos que gestionan la publicidad orientada están empezando a administrar nuestras vidas. Como ha explicado Eric Schmidt, «será muy difícil ver o comprar algo que en cierto sentido no haya sido hecho a nuestra medida».

El código de la nueva red es bastante sencillo. Los filtros de nueva generación vigilan las cosas que nos gustan -basándose en lo que hemos hecho o lo que les gusta a las personas semejantes a nosotros- y después extrapolan la información. Son capaces de hacer predicciones, para crear y perfeccionar constantemente quiénes somos, qué hacemos y lo qué queremos. Juntos, filtran un universo de información específica para cada uno de nosotros, una «burbuja de filtros» que altera la manera en que entramos en contacto con las ideas y la información. De un modo u otro todos siempre hemos elegido las cosas que nos interesan e ignorado el resto. Pero la burbuja de filtros introduce tres nuevas dinámicas.

En primer lugar, estamos solos en su interior. Un canal de cable dedicado a quienes les interesa específicamente, por ejemplo el golf, tiene otros espectadores que comparten cosas en común. Sin embargo, en la burbuja estamos solos. En una época en que la información compartida es la base de experiencias compartidas, la burbuja de filtros es una fuerza centrífuga que nos divide. En segundo lugar, la burbuja es invisible. La mayor parte de las personas que consulta fuentes de noticias de derecha o de izquierda sabe que esa información está dirigida a quienes tienen una orientación política determinada. Pero Google no es tan transparente. No nos dice qué piensa o por qué nos muestra los resultados que vemos.

No sabemos si está haciendo suposiciones acertadas o no sobre nosotros, ni siquiera si las está haciendo. Mi amigo, que buscaba noticias acerca de BP, no tiene ni idea de por qué encontró información acerca de las inversiones, no es un agente de bolsa. Dado que no hemos elegido los criterios con que los sitios filtran la información entrante y saliente, es fácil imaginar que la que nos llega a través de la burbuja es objetiva y neutral. Pero no es así. De hecho, desde el interior de la burbuja es casi imposible darse cuenta de cuánta información se ve. Nosotros no decidimos lo que recibimos, y, sobre todo, no vemos lo que sale.

Finalmente, nosotros no decidimos entrar en la burbuja. Cuando vemos Fox News o leemos The New Statesman, ya hemos decidido que filtro utilizar para interpretar el mundo. Es un proceso activo, y como si nos pusieramos voluntariamente un par de lentes de colores, sabemos muy bien que las opiniones de los periodistas condicionan nuestra percepción del mundo. Pero en el caso de los filtros personalizados no hacemos el mismo tipo de elección. Vienen a nosotros, y dado que se perfeccionan, será cada vez más difíciles evitarlos. El fin del espacio público La personalización se basa en un acuerdo económico. A cambio del servicio que ofrecen los filtros, regalamos a las grandes empresas una enorme cantidad de datos sobre nuestra vida privada. Y estas empresas cada vez están más dispuestas a usarlos para tomar decisiones. Pero no tenemos ninguna garantía de que los traten cuidadosamente, y cuando sobre la base de estos datos se toman decisiones que nos afectan negativamente, nadie nos lo dice. La burbuja de filtros puede influir sobre nuestra capacidad de elegir cómo queremos vivir. Según Yochai Benkler, profesor de derecho en Harvard y estudioso de la nueva economía de la red, para ser artífices de nuestras vidas debemos ser conscientes de las alternativas.

Cuando entramos en la burbuja de los filtros, permitimos a las empresas que la construyen elegir qué alternativas podemos considerar. Nos ilusionamos con ser dueños de nuestro destino, pero la personalización puede producir una especie de determinismo de la información, en que lo que hemos cliqueado en el pasado determina lo que vamos a ver en el futuro, una historia diseñada para repetirse indefinidamente. Nos exponemos a permanecer atascados en una versión estática y cada vez más reducida de nosotros mismos, una especie de círculo vicioso. También hay consecuencias más amplias. Robert Putnam en su Capital social y el individualismo, el libro sobre la decadencia del sentido cívico en América, afronta el problema del agotamiento del ‘capital social’, es decir, de los lazos d e confianza y reciprocidad lleva a las personas a devolverse favores y a colaborar para resolver problemas comunes. Putnam identifica dos tipos de capital social: «El espíritu de grupo», que, por ejemplo, se crea entre los ex estudiantes de la propia Universidad, y el «sentido de la comunidad», que, por ejemplo, se crea cuando personas diversas se encuentran en una asamblea pública. Este segundo tipo de capital es muy potente: si lo acumulamos, tenemos más probabilidades de encontrar un puesto de trabajo o alguien dispuesto a invertir en nuestra empresa, porque nos permite atender a tantas redes diversas.

Todos esperabamos que internet fuera una gran fuente de capital de este segundo tipo. En el apogeo de la burbuja tecnológica hace diez años, Thomas L. Friedman escribía que internet se convertiría en «una comunidad de vecinos». Esta idea fue la base de su libro Las raíces del futuro: «Internet se convertirá en un gran dispositivo con que contará el sistema de la globalización hasta hacer el mundo cada día más pequeño y veloz».

Friedman tenía en mente un especie de aldea global en la que los niños africanos y los hombres de negocios de Nueva York formarían una sola comunidad. Pero no es eso lo que está pasando. Nuestros vecinos virtuales se parecen cada vez más a los reales, y nuestros vecinos reales se parecen cada vez más a nosotros.

Tenemos cada vez más «espíritu de grupo» pero poquísimo «sentido de la comunidad». Y esto es importante porque del sentido de comunidad nace nuestra idea de un «espacio público» en el que tratamos de resolver los problemas que van más allá de nuestros intereses personales. Normalmente tendemos a reaccionar a una serie de estímulos muy limitados: leemos antes una noticia sobre sexo, política, violencia, famosos, o que nos hace reir. Este es el tipo de contenido que entra más fácilmente en la burbuja de filtros. Es fácil hacer clic en «me gusta» y aumentar la visibilidad del post de un amigo que ha participado en una maratón o ha hecho una receta de sopa de cebolla.

Es mucho más difícil hacer clic en «me gusta» en un artículo titulado «Ha sido el mes más sangriento de los últimos dos años en Darfur». En un mundo personalizado, hay pocas probabilidades de que cuestiones importantes, pero complejas o desagradables, llamen nuestra atención. Todo esto no es particularmente preocupante si la información que entra y sale de nuestro universo personal se refiere solo a productos de consumo. Pero cuando la personalización también incumbe a nuestros pensamientos surgen otros problemas. La democracia depende de la capacidad de los ciudadanos para hacer frente a puntos de vista diferentes. Cuando sólo nos ofrece información que refleja nuestras opiniones, Internet limita esta confrontación. Aunque si a veces se nos hace cómodo para ver lo que queremos, en otras ocasiones es importante que no es así.

Como los viejos guardianes de las puertas de la ciudad, los técnicos que escriben nuevos códigos tienen el enorme poder de determinar lo que sabemos del mundo. Pero a diferencia de aquellos guardianes, los de hoy no se sienten defensores del bien público. No existe el algoritmo de la ética periodística. Una vez Mark Zuckerberg, el fundador de Facebook, dijo a sus colegas que para un usuario «una ardilla que muere en su jardín puede ser más relevante que todas las personas que mueren en África». En Facebook, la «relevancia» es prácticamente el único criterio que determina lo que ven los usuarios. Concentrarse en las noticias más relevantes a nivel personal, como la ardilla muerta, es una gran estrategia de mercado pero nos deja ver sólo nuestro jardín y no las personas que sufren, mueren o luchan por la libertad en otros lugares.

No es posible volver al antiguo sistema de los guardianes, y tampoco sería justgo, pero si ahora son los algoritmos los que toman las decisiones y determinan lo que vemos, debemos estar seguros de que las variables de que disponemos van más allá de las estrecha «relevancia» personal. Deben hacernos ver Afganistán y Libia, no solo Apple y nuestro cantante favorito. Como consumidores no es difícil determinar lo que para nosotros es irrelevante o poco interesante. Pero lo que es bueno para un consumidor no tiene por qué serlo para un ciudadano. No quiere decirse que lo que aparentemente nos gusta sea lo que realmente queremos, y mucho menos que sea lo que debemos saber para ser ciudadanos informados de una comunidad o un país. «Es nuestro deber como ciudadanos estar informados también sobre las cosas que parecen no merecer nuestro interés», según el experto en tecnología Clive Thomp. El crítico Lee Siegel lo dice de otra manera: «Los clientes siempre tienen razón, las personas no». Lobotomía global La era de la personalización está poniendo todas nuestas expectativas en internet. Los creadores de la red han imaginado algo más grande y más importante que un sistema mundial para compartir imágenes de nuestro gato. El manifiesto de Electronic Frontier Foundation al inicio de los años 90, hablaba de una «cultura de la mente en el ciberespacio», una especie de metacerebro global. Pero los filtros personalizados cambian las sinapsis del cerebro. Sin saberlo, nos estamos haciendo una lobotomía global.

Los primeros entusiastas de internet, como el creador de la web Tim Berners-Lee, esperaban que la red sería una nueva plataforma desde la cual afrontar juntos los problemas del mundo. Creo que todavía puede serlo, pero antes debemos mirar entre bastidores, comprender qué fuerzas están impulsando la dirección actual. Tenemos que desenmascarar el código y sus responsables, a quienes nos han dado la personalización.

Si «código es ley», como ha declarado el fundador de Creative Commons Larry Lessig, es importante comprender lo que están intentando hacer los nuevos legisladores. Debemos saber qué creen los programadores de Google y Facebook. Debemos entender qué fuerzas sociales y económicas están detrás de la personalización, cuáles son inevitables y cuáles no. Y tenemos que pensar qué significa todo esto para la política, la cultura y nuestro futuro. Las empresas que utilizan los algoritmos deben asumir esta responsabilidad. Deben dejarnos el control de lo que vemos, diciéndonos claramente cuándo están personalizando y permitiéndonos modificar nuestros filtros. Pero también nosotoros debemos hacer nuestra parte, aprender a «conocer los filtros» para usarlos bien y pedir contenidos que aumenten nuestros horizontes, incluso cuando sean desagradables. Es por nuestro interés colectivo que tenemos que asegurarnos que internet expresa todo su potencial de medio revolucionario. Pero no podrá hacerlo si permanecemos encerrados en nuestro mundo online personalizado.

 Eli Pariser nació en 1980 en Lincolnville, Maine. Ha sido el director de MoveOn.org, que reagrupa incluye los movimientos de base de la izquierda estadounidense, y uno de los fundadores de Avaaz, una organización que apoya campañas para el medio ambiente y la democracia en todo el mundo. En febrero de 2011 tuvo lugar una Conferencia Ted sobre la burbuja de filtros, con el argumento de su libro The filter bubble.


Notas

*Quello che internet ci nasconde, http://www.internazionale.it/?p=50845 [ii] Eli Pariser: cuidado con la «burbuja de filtros» en la red http://www.ted.com/talks/lang/es/eli_pariser_beware_online_filter_bubbles.html [iii] On the Internet, nobody knows you’re a dog http://en.wikipedia.org/wiki/On_the_Internet,_nobody_knows_you’re_a_dog