DevOps y memoria: API y claves de flexibilidad


Los ingenieros de DevOps juegan un papel importante en las organizaciones en la interfaz de ingeniería de software y administración de sistemas. Tu trabajo es crucial. Actúan como un "multiplicador de fuerza" para los equipos que son lo suficientemente proactivos como para usarlos para lograr ganancias de eficiencia que antes no existían.

Según una encuesta encargada por Dice y The Linux Foundation, el 60% de los gerentes de recursos humanos están tratando de encontrar expertos en DevOps. Este número da peso al rápido crecimiento de esta disciplina relativamente nueva.

Pero, ¿qué necesitan los ingenieros de DevOps cuando se trata de almacenamiento ? ¿Y cuánta capacidad está disponible el almacenamiento orientado a DevOps?

Computer Weekly recurrió a analistas de la industria y líderes de opinión para obtener su opinión.

The Stack establece el tono

Patrick Callaghan, arquitecto corporativo y consultor estratégico de negocios de DataStax, es un poco reacio a los productos y servicios específicos de campo.

Señala que en cada organización donde se emplean ingenieros, desarrolladores y empleados de DevOps, los arquitectos siempre marcan la pauta. Especificarán la infraestructura con la que los ingenieros de DevOps tendrán que lidiar, y eso incluye tecnologías de almacenamiento.

"En los equipos de DevOps, los desarrolladores y arquitectos generalmente seleccionan primero la base de datos con la que quieren trabajar para respaldar sus datos, y luego examinan las opciones de almacenamiento para admitir esa base de datos", dice Callaghan.

"Los datos creados por las aplicaciones tienden a jugar un papel menor en comparación con la funcionalidad", agrega. Sin embargo, esto puede resultar problemático para los desarrolladores de DevOps.

Afortunadamente, las últimas tendencias de desarrollo muestran una preferencia abrumadora por los productos de código abierto además de las bases de datos NoSQL .

Según la revisión de SumoLogic de las 5 principales bases de datos proporcionadas por Amazon Web Services (AWS), tres pertenecen al género NoSQL. Además, solo dos bases de datos en el top 10 son propietarias: Oracle y Microsoft SQL.

Las tecnologías de bases de datos de código abierto generalmente son adecuadas para los procedimientos DevOps, ya que contienen casi una interfaz de programación de aplicaciones expuesta ( API ) que permite a los ingenieros de DevOps escribir sus propias secuencias de comandos de integración y automatización. [1965] Sin embargo, es evidente que los ingenieros de DevOps también tienen requisitos de memoria específicos .

Y a medida que aumenta la posición de DevOps, será inevitable que sus voces se vuelvan más claras a medida que se construyan los sistemas de TI. Esto es especialmente cierto para el almacenamiento.

El analista de Forrester Naveen Chhabra argumenta que el almacenamiento escalable es particularmente adecuado para las cargas de trabajo de DevOps.

"Estas arquitecturas proporcionan la ecuación correcta de costo de rendimiento para los clientes", agrega, y agrega que normalmente proporcionan el acceso API nativo requerido para la automatización. Sin esto, sería imposible proporcionar de manera eficiente y programática para anular y escalar el despliegue.

"En 2019, nadie debería configurar la tienda manualmente".
Jon Topper, The Scale Factory

Según Chhabra, las API son el foco de todo el ciclo de vida DevOps . Más allá de la implementación, se utilizan para la gestión de cambios, la capacidad y la caracterización del rendimiento, y la separación a través del desaprovisionamiento.

Jon Topper, CEO de The Scale Factory, está de acuerdo. "En 2019, ya nadie debería configurar manualmente la memoria", dijo.

Señala que la mayoría de las configuraciones e implementaciones de almacenamiento se realizan mediante procesos de secuencias de comandos. Esto tiene la principal ventaja de garantizar la coherencia en todos los entornos y permitir buenos procesos de control de cambios.

No se equivoquen, las API son importantes. Sin embargo, los requisitos de memoria de los ingenieros de DevOps van más allá de este punto. Para aquellos que tienen el trabajo de garantizar el rendimiento óptimo de las operaciones y los equipos de TI, el almacenamiento debe ser flexible y admitir la creación de nuevos entornos basados ​​en los requisitos del desarrollador.

"Recuerde el ciclo de vida del desarrollo de aplicaciones", dice Chhabra. "A veces los desarrolladores necesitan memoria de alto rendimiento [system] para las pruebas de rendimiento, mientras que en otras ocasiones solo necesitan acceso a memoria y datos".

Integración de DevOps con otras disciplinas

La naturaleza aún vaga de DevOps ha permitido que otros lo hagan. Absorber disciplinas en el área operativa, siendo la seguridad un ejemplo clave.

"El movimiento para llenar el vacío e integrar los programas de seguridad en DevOps es el futuro. De esta manera, debemos reconocer los beneficios de una mayor seguridad de software y satisfacer las demandas del panorama en constante cambio. "
Javvad Malik, analista

Por ejemplo, la seguridad y DevOps se integran cada vez más. No solo los expertos en seguridad trabajan en DevOps, sino que los equipos de DevOps a menudo trabajan de la mano con sus colegas de seguridad. Esto no es particularmente notable o sorprendente en sí mismo. Como hemos visto, el mundo de la seguridad de la información ha adoptado la filosofía de DevOps para sus propios fines y ha creado la disciplina de DevSecOps .

Como resultado, vemos que las partes interesadas del almacenamiento están integrando características de seguridad que son útiles para los empleados de seguridad y DevOps, tales como: Por ejemplo, puede monitorear la actividad y establecer permisos basados ​​en políticas.

Javvad Malik, analista y defensor de la conciencia de seguridad, describe a Security y DevOps como "como dos estrellas atrapadas en la gravedad del otro y acercándose cada vez más".

Pero hay pocas dudas de que el movimiento para cerrar la brecha e integrar programas de seguridad en DevOps, el futuro es. Está diseñado para integrar los beneficios de una mayor seguridad en el software y satisfacer las demandas del panorama en constante cambio ", dice.

Es la tecnología. Pero tampoco es así.

Muchos de los respetados expertos de la industria de Computer Weekly y los principales analistas de tecnología dijeron que DevOps no se trata de tecnología, sino de cómo funciona.

O, más simplemente, no se trata de tecnología, se trata de cómo se usa. No hay arma mágica, ni herramienta ideal. DevOps tiene tanto que ver con la memoria hiperconvergente como los teclados.

Centrándose en los movimientos rápidos y reduciendo la carga del "trabajo ocupado" en la ingeniería de software, es inevitable que las decisiones de compra tengan que jugar un papel para que esto sea una realidad. En última instancia, depende de la sofisticación de la API, como ya ha mencionado Forresters Chhabra.

Independientemente del paradigma – nube pública o privada, local o externa – es crucial que los desarrolladores de DevOps hagan esto para proporcionar la disponibilidad para hacer su trabajo.

Cuando una solución de almacenamiento permite a los ingenieros de DevOps implementar y reducir la capacidad según sea necesario, e integrar el almacenamiento con otras herramientas, como: Por ejemplo, para la integración y la implementación continuas ()] CD / CI ), o para administrar el tráfico, puede ganar su favor.

También existe el punto destacado que DataStax-Callaghan aborda cuando se trata de cómo los desarrolladores de DevOps a menudo no pueden determinar la arquitectura de los sistemas con los que trabajan. De todos modos, Topper agregó que el almacenamiento es menos preocupante para el personal de DevOps que para aquellos que pueden tomar decisiones de compra.

"Los equipos de entrega de hoy pueden estar menos seguros acerca de cómo asignar el almacenamiento porque la infraestructura es mucho más fungible de lo que solía ser", dijo.

"Vemos que los equipos tratan la memoria como esencialmente infinita y, a menudo, almacenan datos mucho más tiempo del que necesitan". Esto generalmente está bien porque la nube no tiene las mismas restricciones de capacidad que el hardware en las instalaciones, pero tiene un costo. "



Control de obras 3000 de Cea Ordenadores