El otro día en una conversación con un cliente empezamos a repasar todos los avances que había habido en el datacenter en estos últimos años. Seguro que en mi cuenta de twitter, @dmarquina, habéis podido leer algo de esto.

La mayoría de estas necesidades surgen al amparo de las necesidades de los administradores TI, que cada vez se ven obligados a gestionar infraestructuras más grandes y reclaman una simplificación en las mismas.

Con la virtualización se dio un salto de gigante, se redujo enormemente el tamaño de los CPD, se entró en un mundo nuevo en lo que respecta a la gestión de los servidores y la recuperación ante desastres. Todas estas ventajas se fueron aplicando sobre el mundo del escritorio, que cada vez ocupaba más tiempo en los departamentos TIC.

En paralelo a esto, surgió la virtualización del almacenamiento, en la que podemos unificar un parque heterogéneo de cabinas de almacenamiento bajo un único punto de administración y acceso. Esto fue un gran avance para las corporaciones, en un momento de crisis económica, en la que las fusiones y adquisiciones de empresas, son algo tan común.

Hace poco tiempo nace el Software Defined Networking (SDN) o la virtualización de networking, que permite abstraer las distintas funcionalidades del software y hardware de la red, en servicios virtuales totalmente integrados en la infraestructura de virtualización.

Esto permitió un salto cualitativo en el despliegue de los servicios cloud, ya que prácticamente elimina la necesidad de cualquier tipo de intervención física relacionada con el hardware y supone la posibilidad de despliegue automatizado de virtual Datacenters de forma real. Como supondréis, sin SDN, soluciones con vCloud u OpenStack, quedarían prácticamente «cojas».


En todo este puzzle a mí me suena que falta una pieza muy grande. Tenemos todo prácticamente automatizado, pero… ¿qué pasa con el almacenamiento?. Ahora es cuando ponemos una frase muy comercial, de esas que todos los años están de moda, pero que muy poca gente comprende de verdad: el
Big Data.

¿Y qué tiene que ver el Big Data con todo esto? Bueno, el Big Data no deja de ser muchos datos, con lo cual todo lo que sea gestionar muchos datos de forma tradicional, es un problema de administración.

¿Cuántos de vosotros tenéis listas interminables de datastores en vuestras infraestructuras virtuales? Seguro que os ha pasado más de una vez el desconocer en qué tipo de disco o LUN está una máquina virtual o incluso, ¿la LUN donde estoy poniendo esta máquina virtual está siendo replicada a otro almacenamiento?

De hecho os confieso que en Ncora, para tener controlado todas las características a nivel de disco o ver que políticas de performance se le aplican a cada máquina virtual, por ejemplo, tenemos un excel de esos «interminables». Creo que todos estamos de acuerdo, en que esto según crece la infraestructura se convierte en una tarea, cuanto menos, titánica.

Por eso, el próximo y uno de los últimos saltos que nos queda a nivel de datacenter es la automatización de todo lo referente al almacenamiento o lo que podríamos llamar Software Defined Storage (SDS).

¿Y eso qué es? Por explicarlo de la forma más breve posible, debería ser una capa de software que nos permitiese administrar la provisión de servicios y cargas sobre nuestros sistemas de almacenamiento, en función de la necesidad de rendimiento, protección o cualquier otro tipo de política definida por el administrador del sistema.

Por ejemplo, al provisionar una máquina virtual, según la política que la aplicasemos, podría estar o no réplica, en distintas tier de disco, según el performance necesario, con aplicación de snapshots o no, etc…

El usar perfiles de almacenamiento en vSphere es una solución que queda a años luz del Software Defined Storage, ya que no interactua en ningún caso con la capa hardware y esto es algo básico en cualquier solución SDS, que nos despreocupe al máximo posible de la gestión física.

Un ejemplo de solución SDS, que está en fase muy evolucionada es EMC ViPR.

Si volvemos al principio del articulo, donde se nombraba uno de los motivos de estas evoluciones en el datacenter, que no es otro que el de simplificar la gestión, creo que estas soluciones de Software Define Storage deben ser lo más agnósticas de fabricante en la medida de lo posible. De hecho lo recomendable sería que fuese de empresas que desarrollen productos hardware propios, pero como complicado, sobre todo en el mercado español, por temas de soporte, al menos, que ofrezcan compatibilidad con productos de terceros.

Hablar de automatización completa en entornos cloud, obviando el almacenamiento, es a mi entender muy prematuro, ya que olvidamos uno de los pilares de la infraestructura y que a día de hoy, es de los que más gestión requieren.

Me temo que los fabricantes que no sepan subirse a este carro a tiempo y se queden atrás, terminarán siendo prácticamente testimoniales en el mundo del storage.

¿Y vosotros? ¿Qué opináis al respecto? ¡Esperamos vuestros comentarios!

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Post Relacionados: