La Universidad de Buffalo, en Estados Unidos, instaló a mediados de año una súper computadora de US$2,3 millones creada por Dell Inc. con la esperanza de impulsar su imagen de institución de investigación. En vez de lograr ese objetivo, la enorme máquina terminó convirtiéndose en un símbolo de un problema que los centros de datos […]
La Universidad de Buffalo, en Estados Unidos, instaló a mediados de año una súper computadora de US$2,3 millones creada por Dell Inc. con la esperanza de impulsar su imagen de institución de investigación. En vez de lograr ese objetivo, la enorme máquina terminó convirtiéndose en un símbolo de un problema que los centros de datos de todo el mundo enfrentan con una frecuencia cada vez mayor.
Luego de recibir la computadora, los funcionarios universitarios descubrieron que sólo tenían capacidad eléctrica para operar dos tercios del sistema. Han encontrado una solución temporal desviando parte de la energía usada por una súper computadora antigua, pero será necesario invertir US$20.000 en una actualización del sistema eléctrico para que ambas computadoras operen a capacidad total.
«Nos equivocamos en nuestros cálculos», dice Bruce Holm, un alto funcionario de la institución.
Es probable que ocurran más errores como esos. La razón es que en la carrera frenética por mejorar su desempeño, la industria de la computación se ha topado con un gran obstáculo: el hardware más moderno, sobre todo los servidores que operan la mayor parte de los programas de negocios y sitios Web, demandan demasiada electricidad y generan demasiado calor.
Las máquinas devoradoras de electricidad y los crecientes precios de la energía están generando cuentas enormes. Además, están forzando a los proveedores tecnológicos a realizar cambios similares a los que hacen las grandes automotrices para mejorar el rendimiento del combustible en los vehículos.
Si bien ya se están fabricando computadoras energéticamente más eficientes, podrían pasar años antes que las compañías reemplacen los sistemas que ya adquirieron.
Mientras tanto, agregar más energía y refrigeración resulta costoso y complicado en algunos centros de datos. Las organizaciones enfrentan opciones desagradables, que incluyen la construcción de nuevas instalaciones, cancelación de compras de nuevos servidores o dejar sin uso valiosos espacios en sus salas de computación para evitar abrumar los sistemas de aire acondicionado.
Si los planificadores de instalaciones se equivocan en sus cálculos, los servidores se sobrecalientan, dañando los circuitos o causando interrupciones que trastornan las operaciones.
Por años, el consumo de energía no era una preocupación mayor. Los fabricantes de chips achicaban sin piedad los transistores, creando chips que operan a frecuencias más altas y consumen más electricidad.
Además, el consumo de energía aumentó porque los nuevos circuitos minúsculos tienden a dejar escapar electricidad, como un grifo que no se cierra por completo.
Nadie ha miniaturizado tanto los chips como Intel Corp., el mayor fabricante de chips del mundo. En los años 90, los chips más rápidos ayudaron a reducir los servidores de un tamaño de un refrigerador a uno no más grande que una pizza. Y las empresas comenzaron a amontonarlos por decenas en sus estanterías ubiacadas en los centros de datos.
Pero ahora los fabricantes de hardware están cambiando de rumbo. Intel, presionada por la rival Advanced Micro Devices Inc., batalla para mejorar el desempeño de sus chips utilizando cerebros electrónicos múltiples que operan a una frecuencia gigahertz menor para ahorrar energía.
Para Denis Weber, director ejecutivo de tecnologías de la información de la operadora estadounidense de celulares Verizon Wireless, las máquinas nuevas y más eficientes en consumo de energía no están llegando tan rápido como quisiera. Su empresa se vio obligada a actualizar un centro de datos en Ohio para agregar dos megawatts de electricidad, casi siete veces más de lo que consumía en 1998. La cuenta de electricidad mensual saltó de US$10.000 a US$40.000.