Todo va a cambiar (27 page)

Read Todo va a cambiar Online

Authors: Enrique Dans

Tags: #Informática, internet y medios digitales

La estructura de esos centros de datos también empieza a cambiar como consecuencia de esa búsqueda de la eficiencia: en una sorprendente vuelta de tuerca bastante poco habitual en la historia de la industrialización, el progreso tecnológico se alinea con el respeto al medio ambiente. Y lo que es todavía mejor, no lo hace pretendiendo legar un planeta mejor a nuestros hijos ni haciendo gala de ideas ecologistas o conservacionistas, sino por una razón mucho más fácil de entender: el dinero. La presión por incrementar la eficiencia de los centros de datos y el progresivo aumento de potencia de los ordenadores lleva a la virtualización: en una máquina física que incrementa progresivamente su potencia se establecen un número cada vez mayor de máquinas virtuales, que funcionan sobre la misma infraestructura.

Virtualizar servidores conlleva multiplicar la capacidad del centro de datos, pero también reducir enormemente las necesidades de recursos físicos, y particularmente de uno de ellos: la refrigeración. En un centro de datos convencional, en torno a la mitad de la energía eléctrica suministrada se dedica a refrigerar las instalaciones mediante aire acondicionado. Virtualizar servidores supone sustituir máquinas físicas por máquinas virtuales, con ratios que comienzan en 4:1 pero van progresando a gran velocidad merced a la implacable Ley de Moore
[12]
. Tener varios ordenadores virtuales sobre uno físico implica no solo utilizar una sola fuente de alimentación, sino tener además una mayor facilidad a la hora, por ejemplo, de duplicar esa máquina, copiarla o trasladarla a otra localización para incrementar la flexibilidad o responder a una emergencia.

Además de la virtualización, un amplio abanico de tecnologías que van desde el uso de aire exterior en climas fríos hasta el uso de ordenadores con formas que permitan una mejor evacuación del calor (los denominados
“blades”
en lugar de los típicos
“pizza boxes”
, entre muchas otras innovaciones) o la centralización de componentes como los sistemas de alimentación ininterrumpida han dado lugar a una carrera por la eficiencia energética que, unida a iniciativas como el incremento de la reciclabilidad de los componentes y el uso de materiales más ecológicos en la fabricación definen la llamada
Green IT
, tecnología verde. El ratio más habitual utilizado para medir la eficiencia energética es el conocido como PUE (
Power Use Efficiency
, o Eficiencia en el uso de electricidad), que representa la potencia que hay que suministrar a un centro de datos para llegar a suministrar un vatio al ordenador, y suele oscilar, en centros de datos de construcción antigua, en valores superiores a 2: por cada vatio que llega al ordenador y se convierte en potencia de computación, ha sido necesario suministrar al centro de datos dos vatios, uno de los cuales se ha perdido en refrigeración, elementos de conexión, sistemas de alimentación ininterrumpida, etc. Frente a las intenciones de la Agencia de Protección Ambiental de los Estados Unidos de imponer un PUE inferior a 1.9 para el año 2013, algunas empresas como Google han llegado, en esta carrera por la eficiencia a obtener en sus enormes centros de datos, a valores de PUE de entre 1.13 y 1.29, con una media ponderada de 1.21. El valor en ahorro energético de una magnitud así se ha convertido un factor clave a la hora de competir en el mercado, y permite por ejemplo a Google ser mucho más agresivo a la hora de ofrecer servicios gratuitos que otros competidores que tienen que afrontar costes más elevados.

La evolución de la tecnología, por tanto, nos acerca cada vez más a un mundo en el que la tecnología, tanto a efectos de almacenamiento como de procesamiento, se convierte en una
commodity
, en algo que proviene de un centro de datos construido seguramente en alguna latitud fría o con disponibilidad de agua utilizable para refrigeración, donde la lucha contra el calentamiento de las máquinas puede llevarse a cabo de una manera más económica. Un ejemplo claro lo constituye de nuevo Google: su red de centros de datos es un complejo entramado de unas treinta y seis localizaciones (en el año 2008), a la que se une otra red secundaria de localizaciones compartidas en régimen de alquiler, que conforman una red completamente distribuida.

Gracias a la tecnologías de virtualización empleadas por la compañía, la carga de cualquiera de esas localizaciones puede ser desplazada de manera sencilla e inmediata a cualquier otra, dando lugar a una red prácticamente líquida, a una capa que trasciende las localizaciones individuales. ¿Dónde está la verdadera ventaja? Dada la estructura de Google, la ventaja no tiene nada que ver con el ofrecer versiones locales, dado que éstas pueden, en un momento dado, estar corriendo sobre cualquier localización física, sino que se produce en términos de costes operativos: existen centros de datos como el de de Saint-Ghislain (Bélgica), que no solamente tratan de reducir el número de aparatos de aire acondicionado, sino que directamente los eliminan por completo. El clima de Saint-Ghislain (entre 18.8ºC y 21.6ºC) permite refrigerar mediante la simple circulación del aire exterior durante una media de trescientos cincuenta y ocho días al año, unido a un sistema de refrigeración por agua que utiliza, en lugar de agua de la traída municipal, la que circula por un canal industrial cercano que es purificada a la entrada del centro de datos (la legislación mediambiental suele prevenir que las industrias devuelvan el agua empleada en procesos de refrigeración a una temperatura mayor a la que tenía cuando fue recogida). Si el tiempo cambia, y llegamos a uno de esos escasos días de más calor en Saint-Ghislain en los que sería preciso utilizar uno de esos inexistentes aparatos de aire acondicionado para refrigerar el centro de datos, la solución consiste en ir apagando ordenadores hasta que el calor generado se reduce lo suficiente, ordenadores cuyas tareas son inmediatamente asumidas por máquinas en otras localizaciones geográficas. Lógicamente, esto conlleva que las localizaciones más interesantes a futuro para la compañía son aquellas en las que el rango de temperaturas resulta más adecuado, y que el hecho de tener muchos centros de datos distribuidos a lo largo de diversas franjas climáticas con diferente estacionalidad permite compensar estos balances.

Pero no es éste el único tipo de balanceo que puede llevarse a cabo: existe también la posibilidad de desplazar carga hacia lugares que puedan aprovechar tarifas más bajas de electricidad, como por ejemplo durante horas nocturnas de bajo consumo, lo que originaría un trasvase constante de recursos de computación entre diferentes zonas horarias siguiendo una estrategia conocida como
“follow the moon”
. Posibilidades como éstas indican que en un futuro, la mayor parte de los recursos de computación estarán desarrollados por proveedores globales de este tipo capaces de generar arquitecturas globales que aprovechen este tipo de estrategias. Tener un centro de datos corporativo en una empresa normal supondrá un diferencial de coste absurdo, de muy difícil justificación racional. Una forma de entender la transición progresiva a la nube como una simple cuestión de costes, de última línea de la cuenta de resultados, que además en este caso se alinea con una mayor sostenibilidad: a fuerza de evolucionar y perfeccionar la tecnología utilizada en los centros de datos, éstos se han convertido en un negocio suficientemente especializado como para ser desarrollado, lógicamente, por especialistas.

14
Nuevas herramientas para nuevos escenarios

“No pretendamos que las cosas cambien si siempre hacemos lo mismo”

Albert Einstein

Los nuevos escenarios comunicativos y de interacción se basan en nuevas herramientas, en nuevos desarrollos. En muchos casos, esos desarrollos no esperaban ser protagonistas del enorme cambio que hemos experimentado, sino que lo fueron más bien “por accidente”. Pero el resultado final es un complejo crisol de tecnologías, hábitos, usos y costumbres que han dado forma a la red actual y, con ella, a una parte cada vez más importante de la sociedad humana.

En la base de todos estos cambios, tenemos una cuestión bastante imperceptible salvo para miradas suficientemente entrenadas, que encontraremos si comparamos una página antigua con una actual: la sintaxis del código utilizado. Sin ánimo de entrar de detalles y complejidades técnicas más de lo que sería recomendable en un libro de este tipo, resulta muy interesante ver la evolución: el HTML utilizado en las páginas de hace algunos años estaba diseñado para definir la estructura de un texto, y entremezclaba de manera constante los formatos, en forma de etiquetas encerradas entre signos de “menor qué” y “mayor qué”, con el contenido propiamente dicho. Los elementos estructurales y estilísticos, tales como las tablas, las listas numeradas o de puntos, los tipos de letra, las negritas o las cursivas se intercalaban con el texto que finalmente se mostraba. La forma y el contenido resultaban inseparables a todos los efectos, creando páginas en las que estos elementos se utilizaban de maneras completamente arbitrarias en función de las necesidades de representación del contenido.

El HTML no era, en sí, un lenguaje excesivamente complejo. Su estructura era bastante inteligible para el profano, y muchos de sus códigos se podían tomar de otras páginas y simplemente cambiar los textos para adaptarlos a otras. En la década de los '90, miles de aficionados se dedicaron a crear una amplísima variedad de páginas en servicios como Tripod o GeoCities, que adquirieron una enorme popularidad para la escala de la red de entonces y convirtieron en millonarios a sus creadores tras sus respectivas ventas a Lycos y a Yahoo!. Las páginas de este tipo de servicios, caracterizadas por formatos claramente amateurísticos trufados de gráficos intermitentes, galerías caóticas de estilos y de tipos de letras y efectos estéticamente bastante discutibles, fueron deviniendo con el tiempo en un auténtico cementerio de la nostalgia: GeoCities, que había sido adquirido por Yahoo! en Enero de 1999 por 3.570 millones de dólares en acciones, fue finalmente cerrado en Octubre de 2009, en medio de un coro de semblanzas plañideras de todos aquellos que en su momento se iniciaron en sus páginas. Tripod, tras recurrentes rumores de cierre, permanece todavía abierto, aunque su popularidad es a día de hoy bastante escasa.

La evolución de las páginas web fue llevando al desarrollo del XML: un lenguaje en el que los elementos ya no definen el formato, sino directamente el contenido. Todos los elementos de formato se definen al principio en el documento: las cabeceras serán así, los títulos serán de esta manera, las entradas llevarán este o aquel formato, los vínculos se verán así... Al separar una cosa de la otra, el contenido puede mostrarse sin formatos, completamente aislado de los mismos. Las implicaciones de este hecho van mucho más allá de una consideración meramente purista o de algún tipo de exquisitez: al separar la forma del contenido, éste puede ser tratado de manera independiente a todos los efectos, y eso permite una amplísima gama de posibilidades. Un blog, por ejemplo, no es más que una página en la que el usuario define primero el formato, la forma en la que se va a representar el contenido, mediante una serie de opciones y menús de manejo sencillísimo, para posteriormente empezar a introducir el contenido, lo que elimina todo atisbo de complejidad. Si el autor de un blog tuviese que construir su página siguiendo el modo tradicional, la tarea sería únicamente posible para aquellos que tuvieran un extensivo conocimiento de HTML, una habilidad que, a pesar de que no hablamos de un lenguaje especialmente complejo, no suele encontrarse entre las habituales del común de los mortales.

La separación de formato y contenido supone también una posibilidad interesantísima: las páginas web pueden producir un archivo exclusivamente con sus contenidos libres de formatos, y brindarlos para que éstos puedan ser utilizados en otros sitios, dejando atrás sus formatos originales. Los llamados feeds RSS son precisamente eso: una secuencia de los contenidos producidos por una página, al que un usuario puede suscribirse, y leerlos en un formato completamente diferente al de la página original, o reutilizarlos como parte de otra página. Los feeds RSS son producidos de manera automática por las propias herramientas que los usuarios utilizan para escribir sus contenidos: muchos usuarios ni siquiera saben que lo están haciendo. Pero al hacerlo, posibilitan un nivel de seguimiento y de difusión de sus contenidos desconocido hasta entonces. Todos los días, millones de usuarios leen el contenido de sus publicaciones favoritas en los llamados “lectores de feeds”, herramientas como Google Reader, Bloglines, MyYahoo! y otros, o componen escritorios virtuales personalizados sobre la marcha con Netvibes o iGoogle escogiendo aquellas partes de páginas que quieren seguir, como quien se compone un periódico con los deportes del Marca, las columnas de opinión de La Vanguardia, el internacional de
El País
y las guías de espectáculos de Vocento. Ante la facilidad de poder publicar en la red cualquier contenido despreocupándose completamente de su estructura, los usuarios empiezan a subir de todo: las fotos a sitios como Flickr, Photobucket o Fotolog, los vídeos a YouTube, sus pensamientos a Blogger o a WordPress, mientras los interesados en seguirlos se suscriben a sus feeds RSS y reciben la secuencia de lo publicado en sus lectores de feeds en tiempo prácticamente real, cada vez que se ponen delante de la pantalla de su ordenador.

En pocos años, la red pasa de ser el lugar donde unas pocas empresas y medios desarrollaban su presencia a modo de escaparate, a ser el sitio de intercambio para todos, el ágora virtual donde comentar las noticias, escribir reflexiones, intercambiar fotos o mantener un diario, todo sin necesidad de conocer ningún lenguaje especial, utilizando herramientas simples y gratuitas al alcance de cualquiera. Lo que se sube a la red, se queda en la red: con los blogs, se desarrolla el concepto de
permalink
, el vínculo permanente que sirve para acceder a una información aunque ésta se haya archivado posteriormente: aquellos periódicos que no utilizan
permalinks
, cuyas noticias desaparecen de la red a los pocos días, se ven progresivamente ignorados por los internautas, que no quieren vincular a páginas que después dejan de existir y generan un error 404
[13]
. En un espacio virtual ilimitado, ¿cuál es el sentido de eliminar las cosas? ¿Por qué no mantenerlas en la red, para que puedan tener una vida propia, ser vinculadas por terceros, comentadas o encontradas de nuevo?

Other books

How My Summer Went Up in Flames by Doktorski, Jennifer Salvato
My Life, Deleted by Scott Bolzan
Frostbite (Last Call #5) by Rogers, Moira
The Sound of Glass by Karen White
Teton Splendor by Peggy L. Henderson
Stattin Station by David Downing