El centro de datos está cambiando a pasos agigantados en los últimos años con el auge de tecnologías como la virtualización y el modelo de cloud computing. ¿Cómo serán estos entornos en un futuro próximo? ¿Cuáles son las principales tendencias al respecto? Sobre estos aspectos ahondaron diversos expertos de la industria en una mesa redonda organizada el 3 de julio en el marco de uno de los foros tecnológicos que organiza Aslan, dedicado en esta ocasión a la virtualización y a los centros de datos definidos por software.
En el debate, moderado por Carlos Hergueta, director de Servicios de Red Hat, participaron Robert Assink, director general de Interxion, Bruno Bravo, director de Servicio al Cliente de Global Switch, José Antonio Arribas, director de Operaciones y cofundador de Gigas, y Pablo Serber, chief technologist IT services de Colt Technology. La conclusión a la que llegaron todos los participantes fue unánime: los centros de datos cada vez serán más grandes, estarán más consolidados y serán más eficientes. “La consolidación de infraestructuras y tendencias como la virtualización y cloud llevará a que existan menos centros de datos pero que sean de mayor tamaño. Además, los grandes proveedores de servicios en Internet como Google, Amazon e incluso Microsoft apostarán por megadatacenters en lugares con subvenciones o alejados de las ciudades y otros más pequeños en estas últimas”, indicó Assink.
“Poco a poco –añadió Serber–, los centros de datos, sobre todo los públicos, se irán consolidando. La tecnología cada vez estará más centralizada y será más transparente. A partir de ahora la aplicación es lo que importa y no al revés: es decir, se acabaron las soluciones que giran alrededor de los centros de datos, ahora éstos girarán en torno a las aplicaciones, dotados además de una capa de seguridad, compliance, etc.”.
Por su parte, Bravo, aunque señaló que el futuro de estos entornos pasa por “un modelo de grandes data centers con un modelo de cloud híbrido”, apuntó también que esto no significa que los centros de datos que hoy existen dejarán de hacerlo en diez años. “Seguirán operando aunque su modelo de negocio cambiará. Habrá menos hosting y más colocation, y en ello también tendrá mucho que ver el impacto de la virtualización”.
Del centro de datos físico al virtual
Para Arribas, el centro de datos físico tradicional se encaminará a otro basado en servicios. “Habrá asimismo una consolidación de los proveedores y una especialización de las áreas en las que van a operar, unos estarán más centrados en infraestructura como servicio, otros en aplicaciones, etc.”, añadió, señalando que, a largo plazo, “la mayoría de las empresas migrarán soluciones in-house y atadas al ‘hierro’ a soluciones como servicio con las ventajas que éstas tienen de flexibilidad, consumo bajo demanda, etc.”.
Impacto en el consumo energético
Otro de los temas que se abordó en el debate fue qué consecuencias tienen estas tendencias en la reducción del consumo energético de los centros de datos y en la famosa ‘huella de carbono’ que éstos producen. Para Bravo “el que una empresa decida apostar por la virtualización supone que van a disminuir mucho sus recursos de TI, pero esto no significa que lo haga en la misma proporción la factura de la luz”.
No obstante, es evidente que la tendencia a la consolidación sí reducirá el espacio que necesitan las empresas para instalar su centro de datos. “Con la virtualización este espacio disminuye en torno a un 20%”, señaló el directivo de Global Switch.
Serber, por su parte, afirmó que la relevancia de la factura energética es tal que “hay grandes empresas de internet que prefieren que sus centros de datos tengan más temperatura, lo que les obliga a reemplazar antes las CPU, que gastar más en refrigeración de los equipos”.
Desde luego el uso de la potencia energética es, según Arribas, el caballo de batalla de los clientes. “En el futuro éstos podrán elegir que la solución que contratan tenga más o menos coste según la potencia y capacidad de refrigeración que ésta demande”, indicó.
En todo caso, lo que parece claro, como recordó Assink, es que “consume menos energía un gran centro de datos que muchos pequeños. Solo hay que pensar qué contamina más si un autobús o muchos coches”.
El reto de la conectividad
Con el auge de estos grandes centros de datos y del modelo cloud de servicios de TI la conectividad de dichos entornos cada vez gana más peso. “Lo bueno de los grandes centros de datos es que es más fácil que estén bien conectados, sobre todos los de carácter neutral”, apuntó Assink. “Siempre es mejor que sean grandes –añadió Server–, por ejemplo, de cara a ubicarse en sitios estratégicos que permitan un menor consumo energético como, por ejemplo, Islandia.
Pero ¿quién pagará dicha conectividad? Arribas lo tiene claro: el cliente que la requiera y lo hará en función de su demanda, una demanda adaptada a las necesidades de su negocio”.
Evolución del rol del técnico de sistemas
¿Cómo impactarán todos los cambios que se están produciendo en el entorno de los centros de datos y las tendencias de cloud y la virtualización en los técnicos de este segmento? ¿Qué ocurrirá con éstos? “Simplemente, las personas ocuparán un sitio más relevante que el tornillo y podrán atender más al negocio que a la tecnología”, adelantó Assink.
Serber, por su parte, afirmó que el miedo a que los robots reemplazaran a los humanos siempre ha estado ahí en los últimos años pero, en el fondo, lo que ha ocurrido es lo contrario: “Hacen mejores a las personas, elevan su conocimiento, y, además, posibilitan que se creen más puestos de trabajo”. Por otro lado, indicó que es preciso “quebrar la barrera cultural que existe en las empresas de poseer los equipos”.
En esta línea, Arribas incidió en que el cambio de mentalidad es la clave del nuevo escenario. “En todo caso –añadió–, el técnico sigue siendo indispensable. Aunque una empresa, en un modelo de cloud hosting, puede aprovisionar la máquina lo cierto es que necesita a un técnico que gestione la infraestructura, el software… El técnico, eso sí, pasará a ser una herramienta para las unidades de negocio, acometerá un rol que se ajustará mucho más a los requerimientos de estas últimas”.
Además, no hay que olvidar que, como recalcó Bravo, “el 80% de los fallos que se producen en un centro de datos son errores humanos, de modo que automatizar estos entornos no es negativo. Lo que sí hay que hacer es seguir formando al técnico de las instalaciones de centros de datos para que desempeñe mejor su labor”.
Un sector en auge, aun en plena crisis
A pesar de la complicada situación económica de los últimos años y que ha lastrado muchas inversiones tecnológicas, como recalcó Assink, la demanda de los centros de datos no ha parado de crecer en los últimos años al calor del auge de tecnologías que demandan una gran capacidad de proceso y de análisis de información como big data y el internet de las cosas. “El sector de los centros de datos ha crecido en torno al 20% o más desde 2005 hasta el año 2000 y desde entonces ha seguido creciendo algo menos, pero con un porcentaje también alto, del 11-12%”. Toda una muestra de que este segmento es cada vez más necesario para que las organizaciones sean tan competitivas como exige un mercado cada vez más complejo.
Imagen superior: Shutterstock
from TICbeat http://ift.tt/1vExnp4