En su libro 'Executive's guide to cloud computing', Eric A. Marks y Bob Lozano abordan en un momento dado la problemática del ancho de banda en relación con el almacenamiento y recuperación de datos en la nube. Y nos aportan dos elementos que me han llamado la atención: una comparativa y una anécdota.
La comparativa trata acerca del ancho de banda de los componentes fundamentales de un sistema computacional. Estos elementos son, para los autores, el procesador, la memoria, el disco y la red. Pues bien, los autores nos muestran un gráfico de barras en que en ordenadas se refleja el throughput de cada uno de estos componentes en millones de bytes por segundo. La barra del procesador supera cómodamente la cifra de 90.000 y la de la memoria se queda en unos 15.000. Sin embargo, la del disco y la red ni siquiera llegan a ser apreciables visualmente. Prescindiendo del caso del disco, el dato es muy indicativo para el componente red. Queda claro que su capacidad actual para mover datos es muy, muy inferior a la de los procesadores y la memoria.
No sólo eso, los autores afirman que, además, el ritmo de crecimiento de ese throughput en procesadores y memoria es mayor que en el caso de las redes.
Desde luego, esto constituye una seria advertencia de cara al desarrollo futuro de Internet como contenedor de datos y, por tanto, del cloud computing.
Muy curiosa e ilustrativa resulta, igualmente, la anécdota que nos relatan y que podría considerarse un curioso caso de desvirtualización del transporte de datos digitales.
Nos hablan de un ingeniero de Google que, ansioso por probar las excelencias de 'la nube', quiso hacer un backup en red de su amplio arsenal de fotografías y vídeos. Hizo algunos intentos fallidos de realizar ese backup pero consumía horas y horas sin finalizar.
Y, como era ingeniero, se le ocurrió realizar el cálculo del ancho de banda que supondría transportar esos mismos datos en un medio físico (supongo que un disco duro externo) en su coche hasta el centro de proceso de datos donde pretendía almacenarlos. En efecto, bastaría dividir la cantidad de datos transportados por el tiempo para necesario para hacerlo para tener una suerte de ancho de banda desvirtualizada. A pesar del tráfico y otros inconvenientes lo cierto que es que el throughput obtenido por tan primitivo y desvirtualizado método, fue un orden de magnitud superior al logrado por transferencia a través de la red.
Interesante y curiosa, casi divertida la anécdota, pero algo preocupante la conclusión.
Parece que mucho hay que trabajar aún en las tecnologías de red y, quizá, en los algoritmos de compresión de datos, para conseguir la madurez del cloud computing y que el gran interruptor que preconiza Nicholas Carr sea una verdadera realidad.
miércoles, 8 de diciembre de 2010
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario