Categorie
News

Alcuni tipici errori nel deployment di applicazioni su ambienti cloud

Ci sono alcuni errori comuni che molte aziende compiono quando si tratta di fare deploy di applicazioni nel cloud. Quelli più comuni sono di solito legati alle prestazioni delle applicazioni, alla sicurezza ed alla scelta di tool per monitorare ambienti virtuali. La aziende non riescono a fare la pianificazione necessaria per determinare quali applicazioni sono buone candidate per il deployment nel cloud. Applicazioni eseguite su cluster UNIX, e molte applicazioni legacy eseguite su mainframe, non sono concepite per essere spostate in un ambiente cloud. Alcune di queste sono complesse, ed il deployment in ambienti virtuali hardware e software basati su x86 potrebbe richiedere una nuova progettazione e/o riscrittura delle applicazioni. Se si tratta di un public cloud, allora le applicazioni con requisiti di sicurezza particolarmente stringenti potrebbero non essere buone candidate ad essere trasferite.

Le organizzazioni non riescono a scegliere il modello cloud corretto per il deployment di applicazioni. Le applicazioni possono essere distribuite in cloud private o pubbliche. Le private cloud sono cloud on premise sotto il controllo dell’organizzazione IT che le ha create ed hanno più somiglianze con il data center tradizionale rispetto ad una nuvola pubblica, mentre le public cloud invece sono off premise. L’infrastruttura di una public cloud è determinata dal cloud provider e potrebbe presentare un’impronta di gran lunga diversa rispetto al data center tradizionale, o anche rispetto a cloud private, on premise. E’ quindi necessario capire quali applicazioni possono essere trasferite in public cloud e quali invece sia meglio mettere in private cloud. Un altro errore comune è l’impossibilità di determinare i costi di lungo termine e di breve termine, nel deploy di applicazioni in ciascun modello cloud.

Le aziende tendono a focalizzarsi sul concetto di migrazione di server verso il cloud piuttosto che sul deploy di applicazioni nel cloud. Quando un’organizzazione decide di spostarsi dal data center tradizionale ad una private cloud, la motivazione è frequentemente quella del consolidamento di server, che porta ad un miglior utilizzo dei server ed alla riduzione del CAPEX. Non dovrebbe essere questo il punto fondamentale, quanto piuttosto il deploy di applicazioni nel cloud.

I sistemisti in un’azienda di solito si concentrano sul consumo di CPU, memoria, storage e componenti di questo tipo quando pensano alle prestazioni delle applicazioni. Nel data center tradizionale l’applicazione è probabilmente l’unica applicazione eseguita su un server e per questo motivo è modellata su quel server per raggiungere un adeguato livello di prestazioni usando strumenti di monitoraggio del server fisico.

Quando un’applicazione viene di distribuita in una cloud, condivide risorse di CPU, memoria fisica su un host virtuale con molte altre applicazioni in un ambiente virtuale creato da software Hypervisor quali VMware ESXi o Xen. Queste applicazioni si contendono simultaneamente le risorse fisiche del server host virtuale. La messa a punto delle prestazioni ricomincia da zero in questo nuovo ecosistema.

Prima che un’applicazione sia distribuita in un cloud bisognerebbe decidere delle prestazioni di base che consideriate soddisfacenti per soddisfare i requisiti di business. Quando l’applicazione avviene il deploy nel cloud, dovreste esaminare le sue prestazioni e confrontarle contro le prestazioni di base, apportando le revisioni adeguate finché non si raggiunga un livello di prestazioni accettabile. Per fare questo tipo di analisi delle prestazioni, avrete bisogno di strumenti di monitoraggio delle prestazioni che lavorino in ambienti virtuali.

Sono necessari nuovi strumenti per monitorare le prestazioni delle applicazioni, la sicurezza ed il traffico di rete. Gli strumenti che andavano bene per l’ambiente fisico tradizionale non sono sufficienti per l’ambiente virtuale di una cloud.  La virtualizzazione ha aggiunto un livello in più di astrazione rispetto al monitoraggio tradizionale: poiché gran parte del traffico si verifica all’interno di un hypervisor senza che questo avvenga nel network fisico, è necessario avere strumenti progettati per lavorare in ambienti virtuali. Strumenti di monitoraggio di dispositivi fisici non vedono il traffico scambiato tra elementi virtuali quali server virtuali, router virtuali, switch virtuali.

ge loans usa

кредитная карта челябинск

game online mobileон лайн консультациибаза паролей вконтакте торренткак взломать mail ru парольоформить кредитную карту в втб 24 онлайнnoxwin casinobedava gazino video slot oyunlar?деньги в долг на мтс россиякак заблокировать кредитную карту альфа банканациональные парки африкипл¤жный отдых на майские праздникиотдых в танзании дар эл салам отзывыарушаSt. Petersburg escortsчугунная сковорода гриль купитьмедная посуда купить в москверекламное продвижениеhow to trace the location of a phone numberсэндвич панели калининградтрихомониа?здомокомплекты каркасных домов купитьhow to do a keyword analysisиталия горящие турымед справка 001 гс ууслуги по обслуживанию сайтов

Lascia un commento