La tecnologia container, anche se non nuova, ha subito un’accelerazione nel corso dell’ultimo anno e mezzo. Contributo di Matt Hicks, senior director Engineering, Red Hat
In Red Hat è da tempo che sosteniamo che l’IT moderno si focalizza su applicazioni, coerenza, interoperabilità e portabilità tra fisico, virtuale, cloud pubblici e privati. E’ per questo motivo che ci avete visti parlare in maniera approfondita circa la nostra strategia container e presentare innovazioni volte ad accelerare e semplificare lo sviluppo applicativo in ambiente open hybrid cloud.
Da sempre sottolineiamo che la reale portabilità si ottiene solo se ci si può fidare della piattaforma ed è per questo che abbiamo investito in due aree specifiche: contenuto e sicurezza, e ciclo di vita del container. Sono queste le principali preoccupazioni dei nostri clienti e sono cruciali per una reale adozione enterprise.
Sappiamo per esperienza che sono necessari risorse e impegno per trasformare i progetti open source in soluzioni enterprise e sono oltre 20 anni che lavoriamo per codificare ecosistemi tecnologici, da Linux alla virtualizzazione fino al cloud. Oggi quel lavoro si estende ai container, ambito nel quale stiamo applicando la nostra esperienza per dare vita a un host container-specifico sicuro, aggiungere innovative funzionalità container alla principale piattaforma Linux del mercato, integrare nei container i prodotti Red Hat che stanno alla base delle applicazioni e creare un programma di certificazione per le applicazioni containerizzate, insieme a un valido ecosistema di supporto e servizi.
Qualche giorno fa, VMware ha fatto un annuncio che conferma l’importanza della distribuzione Linux se si desidera entrare nel campo dei container. Data la stretta correlazione tra il software che gira all’interno dei container e il sottostante sistema operativo, fornire ai clienti validi Linux container richiede un sistema operativo Linux per l’host e application runtime all’interno del container ottimizzati per l’host.
Cogliamo quindi l’occasione per evidenziare quali sono le funzionalità necessarie di un sistema operativo affinché funzioni al meglio con i container.
Vi sono due componenti chiave: l’ambiente core runtime e un ecosistema di contenuti e partner certificati. Il primo rappresenta l’ambiente che sta alla base di un’implementazione container, la sicurezza dei workload mission-critical è fondamentale. Distribuzioni più contenute e ottimizzate rappresentano un componente importante per la sicurezza, offrendo una “spettro” di attacco minima. In azienda, tuttavia, la sicurezza delle applicazioni containerizzate viene principalmente determinata dal software che gira nei container ed è qui dove la nostra soluzione Red Hat Enterprise Linux Atomic Host brilla fornendo gli strumenti per identificare, trovare e mettere le patch alle vulnerabilità prima che vengano “bucate”.
Altra funzionalità chiave è la capacità di lanciare e gestire i container cluster sull’infrastruttura prescelta. Mentre Photon è ottimizzato per vSphere, Red Hat Enterprise Linux Atomic Host permette di girare direttamente su hardware, così come su infrastrutture virtuali private o pubbliche.
L’ultima caratteristica, spesso ignorata fino a che non diventa un problema, sono le prestazioni. Se si desidera far girare i workload mission-critical sulla piattaforma più adatta, è necessario essere certi della scalabilità dell’ambiente. Quando i clienti parlano di prestazioni, spesso fanno riferimento alle performance bare-metal, che richiedono l’installazione sul ferro, senza l’impiccio dell’hypervisor.
Il sistema operativo quindi, come sosteniamo da tempo e come confermato dall’annuncio di VMware, rappresenta un elemento fondamentale dell’equazione dei container. I concorrenti reali dovranno quindi disporre di un sistema operativo Linux. Ma questo è solo l’inizio.