En el principio fue un desastre. Eran las 10:30 de la noche (hora de la costa oeste de EE.UU.) del 29 de octubre de 1969 cuando el profesor de la universidad californiana de UCLA Leonard Kleinrock y un ayudante intentaron conectar su ordenador con otro de la vecina Universidad de Stanford. Habían escrito las letras […]
En el principio fue un desastre. Eran las 10:30 de la noche (hora de la costa oeste de EE.UU.) del 29 de octubre de 1969 cuando el profesor de la universidad californiana de UCLA Leonard Kleinrock y un ayudante intentaron conectar su ordenador con otro de la vecina Universidad de Stanford. Habían escrito las letras l y o de la palabra login (en informática, entrar o conectar) cuando el sistema se vino abajo.
Responsables de grandes empresas y varios de los más influyentes de la Internet hispana dibujan un brillante futuro no falto de algún nubarrón para una Internet que, 40 años después de aquel balbuceante comienzo, conecta a miles de millones de máquinas y, con ellas, a millones de personas en todo el mundo.
La fecha del nacimiento de Internet es algo controvertida. Algunos dicen que fue el 2 de septiembre de ese mismo año, cuando el equipo de Kleinrock logró enviar un mensaje de una máquina a otra de su laboratorio a través de un cable de cinco metros. Otros retrasan la fecha hasta diciembre, cuando las universidades de California Santa Bárbara y Utah se convirtieron en el tercer y cuarto nodo de lo que entonces se llamaba Arpanet.
«Estamos ante una explosión de posibilidades tecnológicas que están conformando la Internet del futuro»
Como todo bebé, Internet creció muy deprisa. En los siguientes cinco años se asentaron los protocolos como el Transmission Control Protocol (TCP) para que las máquinas se pudieran comunicar entre sí o el del correo electrónico (ver entrevista con Raymond Tomlison) para que lo hicieran los científicos. La red se extendió entre las universidades, centros de investigación y agencias gubernamentales estadounidenses. En 1975 ya había 61 nodos conectados.
Muchas de esas máquinas eran ordenadores de IBM, el gigante azul. Su presidente para España, Portugal, Israel y Grecia, Juan Antonio Zufiría, cree que Internet aún está en edad de crecer. «Asistimos a una explosión de posibilidades tecnológicas que, de hecho, están conformando lo que será la Internet del futuro. Me refiero a la evolución de la Web 2.0 y a su materialización en lo que conocemos como Internet 3.0 o la Web semántica», dice.
Una de las claves del éxito de Internet fue el espíritu libre con el que nació. A pesar de ser un encargo de la agencia Darpa (dependiente del Departamento de Defensa de EE.UU.), sus creadores tenían claro que la infraestructura de esta red debía ser abierta y libre para todos. El propio Kleinrock reconoce en una entrevista a la agencia AP que el ambiente político de aquella época, con los campus universitarios californianos rebosando rebeldía y optimismo, tuvo un influjo destacado en el diseño de la Red.
Google aún no había nacido por aquella época. Sus creadores todavía debían de ir en pantalones cortos a la escuela. Pero el director general de Google España, Javier Rodríguez Zapatero, toma el relevo de aquella filosofía. «Imagino un Internet libre, donde los estándares de desarrollo de los distintos productos y servicios sean totalmente abiertos y se comuniquen unos con otros». Rodríguez Zapatero recuerda que Internet se diseñó para ser una tecnología de libre uso y para favorecer la libre comunicación global. «Si ponemos barreras a esa libertad, estamos coartando le esencia de la Red», añade.
«La mayor amenaza es mantener una estructura de propiedad intelectual basada en el pasado»
A medida que una universidad o centro de investigación creaba una red propia, la enganchaban a Internet. Cada una tenía su propia infraestructura técnica y sistemas de conexión. En los años 70 se vivió cierto caos; convivieron científicos que defendían la interoperabilidad entre sistemas, y proyectos empresariales que querían imponer el suyo.
Tendrían que pasar varios años para que Internet dejara de ser una red de máquinas operadas por unos cientos de científicos. La aparición de los ordenadores personales, los sistemas operativos de usuario de Apple, IBM o Microsoft preparan el camino para la democratización de la Red.
En 1989, el proyecto de hipertexto y la WWW del británico Tim Berners-Lee pone fecha de inicio a la Internet 1.0. Después vendrían los navegadores, como Netscape o el Explorer, y, ya en 1999, el buscador Google. Se completa el trasvase del protagonismo: las máquinas pasan a un segundo plano, siendo sustituidas por las personas.
Los nuevos internautas empiezan a generar su propio contenido, y no sólo a consumir información generada por otros: surgen las redes sociales y, en apenas dos años, algunas como Facebook superan los 300 millones de usuarios.
El presidente de IBM opina que lo siguiente será una combinación inteligente entre personas y máquinas. «Una de las tecnologías que revolucionará la Internet del futuro serán las aplicaciones que permitan búsquedas inteligentes en la Red». Para Zufiría, los contenidos publicados en Internet no siempre son comprensibles para las máquinas, aunque sí para las personas. «Por tanto, el reto pasa por lograr dotar de significado a las páginas web para que los ordenadores sean capaces de emular la inteligencia humana».
El profesor del IE Business School y una de las 25 personas más influyentes de la Internet española, Enrique Dans, mira más hacia lo que se llama informática distribuida. «El futuro de la red estará muy determinado por la penetración del cloud computing en el segmento de consumo». Para Dans, la red de hoy cambiará en nivel de uso y servicios existentes, cuando sea normal tener un servidor particular, familiar o doméstico. «Esto cambiará bastante la concepción que el usuario medio tiene de la red, y disparará el nivel de uso hasta llevarlo a la práctica universalidad», explica.
«Imagino un Internet libre, donde los estándares sean abiertos y se comuniquen unos con otros»
Leonard Kleinrock recuerda en su página web: «Cuando comenzamos con esta red, conocíamos a todo el mundo en la comunidad que la usaban y confiábamos en ellos. Nunca pensamos en protegerla, y esa es su debilidad». Kleinrock no supo anticipar que, a medida que crecía, Internet acogía a gentes diversas con intereses diversos o, simplemente, con ganas de hacer daño. Aunque los primeros virus informáticos aparecieron a finales de los años 70, no es con la popularización de la Red, ya en los 90, cuando la epidemia estalla y se extiende. A las empresas de seguridad informática no les va faltar trabajo.
El presidente mundial de la principal empresa de seguridad Symantec, Enrique Salem, asegura que «las amenazas a la información están creciendo a un ritmo récord, y ésta será una tendencia muy significativa de cara al futuro». Como prueba menciona el hecho de que Symantec ha analizado en el último año más de 1,6 millones de nuevos códigos maliciosos, más de los que habían creado en los últimos 17 años juntos.
Pero el peligro no sólo es tecnológico. El influyente abogado y ciberactivista Carlos Sánchez Almeida considera que «la mayor amenaza para la sociedad de la información es mantener una estructura de propiedad intelectual basada en el pasado, en átomos físicos y no en los bits, que están diseñados para copiarse».
Por su parte, el programador Pablo Soto, encausado por la industria cultural, señala a las corporaciones. «Muchas veces obstaculizan utilísimos estándares en detrimento del avance de la sociedad de la información. Puede que los Gobiernos no sean capaces de protegernos de ellas».
«Las grandes compañías a veces rechazan estándares en detrimento de la sociedad de la información»
En una rara coincidencia, buena parte de los consultados creen que la clave es la neutralidad de la Red. «Internet es lo que es gracias al hecho de ser, por diseño, completamente neutral, en la que un bit es igual a otro bit», explica el profesor y bloguero Enrique Dans. De hecho ,el Gobierno de EEUU aprobó esta semana una declaración en defensa de esta neutralidad. Dans alerta: «Si la red se convierte en un canal no neutral, en el que algunos bits son más iguales que otros, la Red morirá como tal, y se convertirá en algo parecido a la televisión por cable».
El tráfico de datos crece de forma exponencial
Millones de máquinas
De los cuatro nodos conectados en 1969, capaces de enviarse entre sí unos breves paquetes de datos a velocidades de 9.600 baudios (unos 0,9 kilobits por segundo), la infraestructura de Internet ha pasado a estar formada por unos 10.000 millones de máquinas (más que personas) entre ordenadores, servidores y enrutadores que envían datos a la velocidad de la luz.
Datos y más datos
En 1971, época en la que nació el correo electrónico, los paquetes de datos que se enviaban se contaban por centenares. Hoy, hay que echar mano del alfabeto griego para inventar nuevas cifras que reflejen la cantidad de información que circula por la red. Según el último informe de Cisco, que cuenta con los datos de las principales operadoras del mundo, en 2008 circularon por la red 10.174 petabytes al mes (un petabyte equivale a 1.000 millones de megabytes). La cifra se quintuplicará en los próximos cinco años.
Internautas
Los primeros que se conectaron para crear Arpanet fueron nueve personas. La cifra creció aritméticamente en los siguientes 20 años. Pero desde los años 90 la progresión pasó a ser casi geométrica. Hoy, en el mundo, hay casi 1.600 millones de internautas.
Fuente: http://www.publico.es/ciencias/263437/internet/quiere/seguir/libre