Computación en la nube: una aliada que las empresas necesitan para escalar
En los últimos 15 años se empezó a escuchar el concepto de computación en la nube. Los avances tecnológicos, como el boom de los teléfonos móviles "inteligentes" y la más reciente oleada de la revolución digital, llevó a que la mayoría de las personas generen mucha información, y que la nube sea el espacio elegido para guardar todo ese material tan importante y sensible.
Esto, que para muchos desprevenidos o usuarios casuales puede ser un mero recurso, es en realidad un pilar clave a nivel tecnológico para las empresas. Y, sin dudas, parte de una tendencia cada vez más creciente.
Según el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST, según sus siglas en inglés), acceder a una nube permite tomar los recursos que hay en el hardware, contar con esos recursos a demanda de los usuarios, tener un amplio acceso de red a los datos o a la solución, escalar o descender dinámicamente bajo la necesidad de la demanda de esos recursos y mensurar todo ese consumo de manera de poder cobrar o pagar por esos recursos, dependiendo del caso.
¿Qué significa esto para una organización? Implica que, en general, se pueda lograr un nivel de automatización de los recursos, en el propio centro de cómputos, con datos claros de consumo, tanto tecnológicos como económicos.
Todo esto, con las herramientas que aporten la flexibilidad necesaria para, llegado el momento, mover recursos a nubes públicas, como AWS de Amazon, Azure de Microsoft o GCP de Google, entre otras.
Esta acción convierte a una nube privada en una híbrida. Así, habrá recursos accesibles, tanto en el centro de cómputos propio, como en el de terceros, dando servicio en tiempo real a usuarios y clientes.
Nubes para diferentes propósitos
Una nube híbrida estará compuesta por, al menos, una nube privada y una nube pública. Es decir que se podría tener una nube privada, compuesta por uno o más data centers, y un proveedor de nube pública, como ser AWS de Amazon o GCP de Google.
Por su parte, la nube pública es una red de centros de cómputo repartido en muchos sitios, con una capacidad de crecimiento constante y, para los clientes, ilimitada.
El concepto de nube híbrida empieza a tomar más protagonismo respecto a las otras clasificaciones y muchos expertos consideran que 2023 será el año de su explosión.
Los motivos son varios: empresas realizaron grandes inversiones de dinero, tiempos y capacitación en infraestructura "on-premises", dentro de sus propios centros de datos, y eso implica que tendrán la posibilidad de segmentar las operaciones entre ambos entornos, aprovechando así la inversión ya realizada dentro de sus propios espacios, más el poder, escalabilidad y flexibilidad de una nube pública.
¿Cuándo implementar una nube híbrida?
Puede haber distintas razones para optar por un modelo de nube híbrida; desde bajar costos de consumo de recursos y operacionales, o tener la capacidad de escalar con los recursos de hardware de centros de datos distribuidos en el mundo de las empresas que prestan servicios de cloud, y solo pagar por ese consumo en tiempo real.
Es decir, que, ante una necesidad de mayor consumo de recursos, que no es constante pero sí frecuente y esperada, podremos tener esa capacidad de escalar rápidamente y pagar los costos de ese escalamiento específico.
No es como en otras épocas en las que hubiera sido necesario salir a comprar nuevo hardware que, eventualmente, se encontraría ocioso por muchas horas y/o días.
Este es uno de los principales beneficios de una cloud pública: pagar por el uso, escalar ante la demanda y, una vez que esa demanda ha sido satisfecha, no pagar más hasta que sea necesario nuevamente.
Soluciones que se pueden subir a las nubes híbridas
En la práctica, se puede subir prácticamente todo a la nube. Eso no significa que sea lo correcto, ya que, por ejemplo, subiendo grandes aplicaciones monolíticas y enormes volúmenes de datos o procesamiento necesario para los mismos, nos podemos encontrar pagando sumas exorbitantes de dinero.
Y no solo la cuestión de costos, también estaríamos llevando a la nube viejos problemas, antiguos diseños y/o falencias que por estar en nuestro propio centro de datos se fueron acumulando con el tiempo, haciendo que la experiencia de la nube sea cara y poco eficiente.
La modulación y distribución de nuestras aplicaciones y la reorganización del consumo de recursos nos darán la posibilidad de subir con agilidad partes o aplicaciones enteras a la nube gracias a las ventajas que ya enumeramos, con mejoras de costos y recursos y la capacidad de escalar a demanda, para ofrecer disponibilidad constante de nuestros servicios.
Para una aplicación exitosa es clave poner el foco en DevOps y metodologías de desarrollo ágil. Si no, nos encontraríamos con cantidad de problemas al tratar de administrar esos recursos con estructuras de administración dividida en áreas (silos). En definitiva, estaríamos multiplicando nuestros problemas operativos en lugar de solucionarlos.
Por el lado técnico se puede afirmar que si se tienen nuestras aplicaciones contenidas, automatizadas y escalables con Kubernetes u Open Shift, que funcionan tanto on-premises como en cloud, sabremos cómo disponer y acceder a nuestros datos con distintos tipos de bases de datos, relacionales y no relacionales. Todo esto sumado nos da una buena posibilidad de tener una nube privada y movernos desde y hacia la nube pública sin demasiados inconvenientes.
(*) Ingeniero de plataformas de Ingenia.