Noticias

Tendencias en centro de datos para 2018

11 Enero 2018 en TICbeat

Te mostramos cuáles serán las tendencias, desafíos y oportunidades de los centros de datos en 2018 gracias a la opinión de los expertos de 12 empresas clave en el sector. ¿Quieres saber qué nos han contado?

Llega el nuevo año y, con él, el momento de establecer prioridades y analizar cuál va a ser el devenir de algunas de las tendencias que pueblan las mentes de los CIO en nuestro país y alrededor de todo el planeta. Y es que, más allá de la inteligencia artificial o la ciberseguridad, otros aspectos menos atractivos ofrecerán desafíos igual o más considerables a lo largo de 2018.

Uno de ellos es el futuro que le espera a los centros de datos. Los antaño santuarios de la informática corporativa se enfrentan actualmente a una profunda reinvención fruto de la irrupción del cloud computing pero, también, de la aparición de fenómenos como el edge computing o el Internet de las Cosas.

¿Seguirán existiendo los CPD como tal en unos años? ¿Es 2018 el año clave para transformar estos centros de datos hacia los nuevos entornos y paradigmas computacionales? ¿Cómo debemos entender los 'data center' en relación a las redes de nueva generación y la interconexión cada vez más necesaria?

En TICbeat hemos reunido la opinión de 12 empresas clave de este sector para ofrecerles la mejor panorámica del segmento de los centros de datos y su potencial, desafíos y perspectivas de cara a este 2018 que apenas está por comenzar.

IoT y edge computing

Una de estas firmas de referencia es Equinix, recién aterrizada en nuestro país tras la compra de Itconic y Cloudmas. Su vicepresidente de Tecnología e Innovación, Kaladhar Vorunganti, apela directamente al IoT como el principal catalizador del cambio en este segmento de actividad.

"Gartner pronostica que, en 2017, existirán 8.400 millones de dispositivos conectados en todo el mundo, un aumento del 31 por ciento con respecto a 2016, y esta cifra llegará a los 20.400 millones en 2020. En 2018, a medida que el número de estos dispositivos se multiplica, las necesidades de computación en el Internet de las Cosas serán cada vez más vanguardistas", explica el ejecutivo.

"Mantener una baja latencia es una de las principales razones por las que las compañías están moviendo grandes cantidades de datos desde dispositivos IoT más cercanos al procesamiento y analítica en la nube", continúa Vorunganti. "Pero llevar la interconexión al propio objeto también ahorrará en costes de red, ya que las empresas podrán depurar volúmenes de datos inútiles del Internet de las Cosas cerca de la fuente para obtener el acceso más rápido a información valiosa y necesaria para tecnologías tan importantes como los hospitales inteligentes. Y en un número creciente de regiones, los datos deben procesarse en el borde para cumplir con los requisitos de protección de datos".

Igual opinión guarda Roberto Beitia, presidente de Sarenet. "Los centros de datos evolucionarán hacia la proximidad. Los clientes demandarán que sus datos estén geográficamente cercanos por la seguridad que supone y, sobre todo, para que la latencia sea mínima, tanto para enviar como para recabar información", afirma el directivo.

En la misma línea se posiciona Erik Ekudden, director tecnológico de Ericsson: "Veremos una aproximación holística al Internet de las Cosas que obligará a varios cambios. El primero de ellos es el desbloqueo de las redes computacionales de nueva generación, lo cual permitirá acelerar el desarrollo de una plataforma IoT extendida y distribuida, con comunicación inmersiva que llegue a la experiencia del usuario en el mundo físico".

Juan Luis Peñaloza Figueroa, profesor de la asignatura Arquitectura del Big Data del Máster en Analítica Web y Big Data de Spain Business School, adelanta otro elemento en esta ecuación hacia la computación en el extremo: los content delivery network. "Junto con los proveedores de banda ancha inalámbrica, serán los demandantes de los nuevos formatos de CPD (Centro de Procesamiento de Datos) que guiarán su ubicación según la demanda de servicios. Esto supone que las nuevas aplicaciones se alojarán en infraestructuras convergentes, híperconvergentes, y de conversación, donde los micro data centers facilitarán la gestión de los mismos y proporcionarán seguridad y escalabilidad".

Un CPD más abierto y flexible

El centro de datos seguirá en 2018 su evolución a un modelo más abierto y flexible que le permita responder más rápidamente a las necesidades del negocio. Eso es lo que cree Alex Caballero, Infrastructure & Data Management CTO en Atos Iberia: "Esta evolución se centra en cuatro elementos clave: modelo híbrido, automatización, flexibilidad y disponibilidad", dice. Para este experto, el modelo será híbrido porque no existe una única arquitectura que en estos momentos responda a todas las necesidades del negocio. "Cloud, pública y privada, junto a infraestructura convergente e hiperconvergentes, e incluso mainframes, continuarán coexistiendo durante mucho tiempo porque cada entorno se adecúa a diferentes cargas de trabajo y requerimientos por lo que veremos el traspaso de cargas entre los diferentes modelos pero sin la desaparición de ninguno de ello"

Este modelo lleva asociado el incremento de la complejidad general, tanto por su diversidad como por la necesidad de integración y gestión de todo el ecosistema. "Es por ello que la automatización y aumentar la flexibilidad en el 'data center' sean elementos clave para mantenerla a raya y reducir los costes totales de operación", afirma el directivo de Atos.

A su vez, la automatización evolucionará de la que vemos hoy en día en muchos CPD a un uso cada vez extenso de conceptos relacionados con la inteligencia artificial. Mientras, la flexibilidad se consolidará con el imparable avance del 'Software Defined Everything (SDx)' que promete tanto abaratar los costes como flexibilizar y agilizar el cambio en el centro de datos.

Blockchain como sistema biológico del nuevo CPD

Otra de las amenazas, oportunidad quizás, reto seguro, para los centros de datos tiene nombre propio: blockchain.

"Surgirán mecanismos para gestionar los datos de forma inmutable, verdaderamente distribuida y con toda confianza (es decir, sin autoridad central) que van a tener un impacto profundo en los centros de datos. El blockchain es un buen ejemplo de esto", explica a este medio Mark Bregman, responsable tecnológico de NetApp. "Los mecanismos descentralizados representan un reto al concepto tradicional de la protección y la gestión de datos. Como no hay un punto central de control, como un servidor centralizado, es imposible cambiar o eliminar la información en un blockchain y, además, todas las transacciones son irreversibles".

Este experto nos invita a pensar en ello como si se tratara de un sistema biológico: "Tiene una serie de pequeños organismos que saben lo que se supone que tienen que hacer, sin tener que comunicarse con algo más o que les digan lo que deben hacer. A continuación, les proporcionamos algunos nutrientes (en este caso, los datos). Los nutrientes saben lo que hacer y todo empieza a funcionar de manera cooperativa, sin ningún control central. Como un arrecife coralino".

Por el contrario, los centros de datos actuales y las aplicaciones funcionan como granjas gestionadas de forma comercial, con una unidad central de control (el granjero) que gestiona el entorno que tiene a su alrededor. ¿Cómo conjugar ambos conceptos? "Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones necesarias. Los microservicios y los datos trabajarán de forma cooperativa, sin un control general gestionado de forma centralizada", concluye Bregman.

Larga vida al mainframe

No estaba muerto, estaba de parranda. Eso reza una popular canción y eso mismo es lo que le sucede al 'mainframe', ese equipo condenado a muerte que resurgió de sus cenizas. Veronique Dufour-Thery, vicepresidenta Sur de Europa, Oriente Medio y Norte de África en Compuware, confirma esta impresión. "El mainframe tiene asegurado un puesto de honor en el panorama TI no solo de 2018, sino de años venideros", afirma.

"Todos los datos auguran la omnipresencia del mainframe en la evolución hacia la economía digital. Según la consultora Gartner, el 80% de los datos corporativos del mundo se gestionan en entornos mainframe; nueve de cada diez de las entidades financieras más grandes del globo continúan utilizando estos sistemas transaccionales y de registro y, además, lo hacen porque sus costes de operación son más eficientes que los de los sistemas distribuidos. Entre otras ventajas, un mainframe actual, del tamaño de una nevera, puede ejecutar 100.000 servidores Linux de manera concurrente".

¿Qué supone eso, trasladado a números que todos podamos entender? Pues que, si pensamos en grandes volúmenes de transacciones, 7.000 tweets, 30.000 me gusta en Facebook y 60.000 búsquedas de Google por segundo, que se producen actualmente en el universo de las redes sociales, no pueden compararse con la capacidad mainframe del Sistema de Control de Información de Clientes (CICS): 1,1 millones de transacciones por segundo. "Creado hace 50 años, el mainframe lejos de sucumbir ante las nuevas tecnologías, se mantiene como el soporte principal de los grandes sectores económicos, desde las finanzas a las grandes distribuidoras, pasando por las telcos y las compañías energéticas", concluye la ejecutiva.

In-house 'vs' cloud híbrida

Tras muchos años en los que los datos y aplicaciones han residido en las instalaciones propias de la empresa o bien utilizando las instalaciones de un tercero las modalidades de housing o hosting, parece que la tendencia impone el modelo de cloud híbrida utilizando servicios cloud tanto públicos como privados para dar soporte a distintas áreas de la organización.

"Muchas organizaciones quieren gestionar cargas de trabajo en un modelo cloud pero manteniendo los datos y los sistemas en sus propias instalaciones, garantizando así el cumplimiento de ciertas normativas y requisitos de seguridad y simplificando la interacción con otras aplicaciones que residan en sus centros de datos y que se exploten de una manera tradicional", explica Álvaro Travesí, Systems Sales Consulting Manager en Oracle.

Tendencia que también ven desde Eurecat. "Seguirá habiendo migración de parte de los procesos digitales de las empresas hacia tecnologías de la nube. En algunos casos, la migración se hará a nubes públicas, pero, en general, las empresas seguirán manteniendo internamente una parte de sus activos digitales, los más estratégicos o sensibles, que migrarán hacia nubes privadas".

Hacia el centro de datos intuitivo

A su vez, Roberto Moral, Director de Arquitecturas en Cisco España, adelanta un nuevo concepto que pronto oiremos por doquier: el del centro de datos intuitivo. "Durante 2018 veremos la creciente adopción de una nueva aproximación para el data center: Intent-based Data Center o Data Center intuitivo/auto-adaptable a las necesidades de negocio. Está informado por el contexto, impulsado por la intención, y preparado para entornos multi-cloud".

La idea es que los administradores del data center puedan definir las políticas de uso y el estado deseado de la red y de los servidores. Y después, que el software provisione y reconfigure automáticamente los recursos para obtener ese estado previamente definido, y de forma óptima.

"Este nuevo centro de datos está siempre aprendiendo (monitorizando la red, las aplicaciones, el cumplimento con las políticas, los cambios, las anomalías y el comportamiento de los clientes), siempre adaptándose (definiendo lo que se necesita para cada aplicación, escalando bajo demanda y adaptándose para integrar) y siempre protegiendo (segmentando, aislando, analizando mediantes técnicas forenses, resolviendo los problemas y garantizando el cumplimento con las políticas y regulaciones en tiempo real", sintetiza Moral.

Computación cuántica

Pero los centros de datos tienen un límite, y es posible que en 2018 alcancemos ese umbral de no retorno.

"La computación clásica es extraordinariamente potente y continuará avanzando y dando soporte a todo lo que hagamos en los negocios y en la sociedad. Sin embargo, hay ciertos tipos de problemas cuyo tiempo de resolución en un computador clásico crece exponencialmente con respecto a la complejidad del propio problema, lo cual los hace inabordables desde la perspectiva actual de la computación clásica", Francisco Gálvez, experto en computación cuántica en IBM España.

"Para generar conocimiento a partir de una mayor complejidad necesitamos adoptar un nuevo enfoque y es aquí donde la computación cuántica se presenta como un firme candidato para el tratamiento de problemas altamente complejos en tiempos asumibles".

El impacto del GDPR

En 2018 se aprobarán varias normas importantes sobre privacidad, seguridad y soberanía de datos, y todas ellas tendrán importantes repercusiones para las empresas. El Reglamento General de Protección de Datos (GPDR en sus siglas en inglés) restringe la transferencia de datos en la Unión Europea a los países que aprueban esta normativa, lo que podría afectar a las transferencias de datos entre las compañías de la Unión Europea e importantes partners de negocio internacionales.

Igualmente, el Registro de Auditoría Consolidada (CAT en sus siglas en inglés) requiere que en los Estados Unidos las compañías registren todas las transacciones de seguridad y aseguren la precisión de los servicios a un nivel de nanosegundos. Por su parte, la Directiva sobre Mercados de Instrumentos Financieros (MiFID en sus siglas en inglés) en Europa impone nuevos requisitos de información y análisis a las empresas de inversión.

"La aplicación del GDPR y de leyes similares de soberanía de datos en todo el mundo provocará que las organizaciones cuenten con data centers en múltiples regiones para almacenar datos a nivel local. Las leyes CAT y MiFID II también exigen que las organizaciones registren las transacciones financieras a un nivel detallado", añade Kaladhar Vorunganti, de Equinix. "Esto, a su vez, hace necesario que las organizaciones deban cumplir con un alto nivel de sincronía entre sus múltiples centros".

España, epicentro de la interconectividad con LATAM y África

En los últimos meses hemos asistido al gran interés de muchos operadores, redes de contenidos internacionales, proveedores de servicios de Internet en colocar sus centros de datos de interconexión en España y Portugal. Estos avances no sólo mejoran las capacidades TIC del mercado español, sino que además, permitirán que países emergentes en África mejoren su experiencia de conexión en 2018 y que la relación con Latinoamérica sea más directa que nunca.

"El intercambio de tráfico de Internet a nivel local es necesario para mejorar las condiciones de acceso y esto debe ser valorado y apreciado por las comunidades de ISP", explica Ivo Ivanov, CEO de DE-CIX International. "El viaje en el África será largo, pero creemos que se consolidará como un ecosistema digital saludable para el continente".

Volver