Categorie
News

L’opportunità di ridurre la cache per ridurre i costi operazionali

In un documento presentato nel contesto dell’Hot Cloud 2012 da un gruppo di ricerca costituito da CMU ed Intel Labs, dal titolo “Saving Cash by Using Less Cache” (qui in PDF), viene mostrato come sia possibile usare meno DRAM in condizioni di carico ridotto per risparmiare sui costi operazionali. Ci sono alcuni problemi legati a quest’idea, ma in un’era in cui la cache è utilizzata intensivamente, potrebbe essere una risorsa interessante per risparmiare sui costi della propria applicazione.

Il caching è usato solitamente per ridurre il carico su un database e per ridurre la latenza. Le problematiche nel suo utilizzo sono causate dal fatto che la RAM nel cloud è abbastanza costosa, ed un terzo dei suoi costi possono provenire dal caching tier. Le soluzioni sono ridurre la cache nei momenti in cui il carico è minore, in quanto come mostra il documento sopra postato, quando il carico scende sotto un certo livello è possibile privarsi del 50% della propria cache senza avere alcuna conseguenza sulle prestazioni. Inoltre sono statisticamente pochi gli elementi che vengono richiesti con una frequenza importante, è quindi conveniente bilanciare correttamente le dimensioni della cache senza eccedere immettendo elementi che poi non è necessario mantenere al suo interno.

Una proposta avanzata è quella di usare due tier di server, un gruppo di server di cui ci si voglia privare per il caching, e poi il gruppo primario che sarà il gruppo di server da mantenere in ogni caso. Una cache request viene diretta ad entrambi i gruppi, se i dati sono nel gruppo secondario e non in quello primario i dati vengono trasferiti al gruppo primario. Questo assicura che i dati più richiesti rimangano nella cache, senza coinvolgere il database, e dopo qualche passaggio si disattiva il gruppo secondario. I risultati riportati nel documento sono:

– un tasso di hit inferiore può essere sostenuto ad un carico inferiore senza rovinare le prestazioni;

– il trasferimento dei dati prima di diminuire la cache elimina i problemi di prestazioni;

– Ne consegue che è possibile usare meno DRAM di fronte ad un carico inferiore per risparmiare sui costi operazionali.

I problemi portati da questo approccio sono dati dalla difficoltà a sapere quando il carico è basso e quando invece ridiventa alto; ci sono dei costi associati all’elasticità, perché terminare istanze on demand e caricare nuove istanze può diventare costoso se ci sono fluttuazioni consistenti. Inoltre anche il processo di identificazione degli oggetti che vengono richiesti più spesso può essere poco preciso, e portare a dover entrare spesso nel database, con conseguenze di costi ancora peggiori rispetto ad un uso intensivo della cache. Il caching è usato per snippet HTML, per risultati intermedi di cui viene eseguito il flush nel database con cadenza regolare, e per molti altri motivi, quindi eliminare della cache non è solo un problema di database, ma di tutto il sistema.

услуги компании по продвижению

пластиковые окна реклама

wow-vzlomshik.ruвзять кредит через интернетскачать программу для взлома платных игрвзломать wi fi на андроидкредит на открытие бизнеса с нуля сбербанкmerit royal casinocasino bedavaобразец заявки на получение займабыстрые деньги займ калугасафари африка гденгоро нгоротур в африку сафариденьги в долг от частного лица калугамногоярусные клумбыаксессуары для ванной фотоизменения в уголовном кодексе украины 2012методы продвижения бренда на рынкеяндекс раскрутка сайтаМототерра обманкак лечить кишечную палочку во время беременностипроекты готовых коттеджейcar cover vancouverтент Ferrarilight optionsbanc de binary delete account

Lascia un commento