Recomiendo:
0

Peligros y costos de la complejidad

Fuentes: www.eluniverso.com

Desde hace tiempo ya, Manuel Castells nos alerta en varios de sus libros y artículos sobre la complejidad creciente de las redes y el hecho de que algunas de ellas «escapan de cualquier lógica humana». Suele dar como ejemplo los mercados financieros mundiales. Partiendo del hecho, recién comprobado, de que la mitad de las transacciones […]

Desde hace tiempo ya, Manuel Castells nos alerta en varios de sus libros y artículos sobre la complejidad creciente de las redes y el hecho de que algunas de ellas «escapan de cualquier lógica humana». Suele dar como ejemplo los mercados financieros mundiales.

Partiendo del hecho, recién comprobado, de que la mitad de las transacciones efectuadas ahora en Wall Street lo son por computadoras, Mark Anderson explica en Strategic News Service que «la complejidad sale cara».

Esta forma de operar de Wall Street tiene tres implicaciones: las computadoras toman las decisiones, lo hacen a gran velocidad (el proceso se llama flash -de relámpago- trading) y la complejidad «rebasa la capacidad humana de comprensión y control», sostiene.

Jóvenes graduados de las mejores universidades ajustaron los algoritmos, pero Anderson apuesta que la situación actual «rebasa» lo que habían soñado.

La velocidad cuenta tanto, que las empresas más grandes ponen sus servidores lo más cerca posible -físicamente- de la bolsa de valores para ganar algunos milisegundos que se pueden traducir en significativas ganancias financieras.

En este sentido, precisa Anderson, las operaciones en cuestión «rebasan hasta la capacidad de comprensión de quienes las programaron». Este caso de tecnología sin control «representa una amenaza real. Sin los frenos apropiados ni la capacidad de detener las operaciones, es muy posible que las computadoras echen al suelo la economía global en escasas horas sin que un solo humano entienda exactamente lo que pasó».

Casos de tecnologías sin real control humano no se limitan al mundo de Wall Street. Para Anderson el Pentágono podría darnos varios ejemplos, empezando por las computadoras que manejan los aviones más sofisticados (los B-1 por ejemplo). Pilotearlos sin ellas sería como tratar de manejar «una caja de zapatos con vientos fuertes».

Los dos ejemplos pueden parecer relativamente alejados de nuestras vidas cotidianas pero podemos encontrar casos mucho más cercanos. ¿Quién puede pretender todavía que controlamos la internet? La dificultad encontrada en la lucha contra el virus Conficker (del cual algunos piensan que sigue desarrollándose sin intervención humana) podría ser una ilustración.

Tomando este ejemplo, Anderson afirma que la red de redes ya está fuera de control para 99.9999999999999% de los humanos y apuesta que «hasta los controladores han perdido algo del control».

De la misma manera, la complejidad parece estar afectando, esta vez a nivel de los costos, el cloud computing. En vez de manejarse a nivel de la computadora individual o de la empresa, en ese tipo de informática las operaciones se realizan en servidores lejanos, muchas veces reunidos para ganar en eficiencia, en un solo lugar debidamente equipado en energía eléctrica y en capacidad de refrigeración.

Hasta el momento todo el mundo estaba convencido de que salía más barato así. Podría ser una ilusión. Basándose en un estudio reciente de Computerworld, Greg Ness, de la empresa Infoblox, afirma ahora que, en las redes más grandes, el costo por usuario (por dirección IP en concreto) es más elevado que en las más pequeñas, fundamentalmente por los costos derivados de la indispensable vigilancia humana.

De ahí la paradójica amenaza de «economía de escala invertida» en la cual, mientras más se crece más cuesta por usuario.

Anderson concluye que «la complejidad sale cara» y formula una nueva «ley» según la cual «a medida que se vuelva más compleja, esta cuesta exponencialmente más».

Un reconocido dirigente de una empresa especializada en la gestión de redes electrónicas, Greg Ness, aconseja una mayor inversión en la automatización de los procesos de gestión de las redes grandes si se quiere «encontrar nuevas economías de escala».

Mark Anderson, por su parte, alude a los sistemas abiertos conocidos por su capacidad de autoconstruirse y autorregularse. En términos concretos, la respuesta consistiría en entregar el desarrollo de tales «megaestructuras ingenieriles (como Linux) a un número infinito de ingenieros».

La solución propuesta por Ness puede permitir reducir los costos, pero esta también podría llevar a una pérdida en la capacidad de control por parte de los humanos. Aparentemente más humana, ya que descansa en la participación de muchos de nosotros, la solución de Anderson no es garantía de control.

Corresponden a los dos polos de la tensión que define la evolución de las tecnologías digitales desde su inicio: la inteligencia artificial y la participación de la gente. De poder escoger, nos toca decidir ¿Qué futuro queremos?

LINKS

Manuel Castells – ‘The Citizen Versus the Machine’: http://findarticles.com

Mark Anderson – ‘The Cost of Complexity’ (suscripción requerida): http://www.tapsns.com

Greg Ness – ‘Cloud Computing, Virtualization and IT Diseconomies’: http://gregness.wordpress.com

Greg Ness – ‘The Power Potential of Virtualization and Cloud Computing’: http://gregness.sys-com.com

Enlace original: http://www.eluniverso.com/2009/09/13/1/1431/peligros-costos-complejidad.html?p=1354&m=1643