Google e i big data: il progressi dell’azienda americana

Attraverso le dichiarazioni di O'Connor, product manager di Cloud BigTable, cerchiamo di ripercorrere la storia di Google nell'ambito dei big data

Google e i big data: il progressi dell’azienda americana

Le aziende producono sempre più dati e si aspettano di ottenere da essi informazioni preziose per il proprio business. I big data non sono più semplici documenti da conservare sfruttando un servizio di storage, ma diventano sempre più i veri protagonisti delle strategie aziendali. Dalla loro analisi scaturiscono infatti scelte di business fondamentali per la crescita imprenditoriale. Google questo lo sa perfettamente, avendolo testato sulla propria pelle, ed è per questo motivo che da diversi anni sviluppa soluzioni per la gestione dei big data utili non soltanto al proprio business, ma anche a quello delle imprese esterne, rivendendo le proprie tecnologie come servizi cloud.

Il primo progetto Google per i big data è stato MapReduce, il framework progettato per supportare la potenza di calcolo distribuita su una grande quantità di dati. Scaturito nel 2004 a partire da un concetto di programmazione sviluppato nel lontano 1958, MapReduce ha rappresentato la prima grande iniziativa dell’azienda americana legata ai big data ed è stato introdotto per gestire al meglio i dati che venivano ricercati in Internet. In sostanza il suo compito era quello di suddividere i big data in modo tale da consentire l’elaborazione tramite Hadoop e l’esecuzione su hardware a basso costo.

Dall’introduzione di MapReduce, il colosso delle ricerche online ha fatto molta strada nell’ambito dei big data e di recente ha reso disponibile il servizio Cloud BigTable, il database NoSQL completamente gestito e facilmente scalabile.

Cory O’Connor, product manager di Cloud BigTable, ha affermato che l’uso di infrastrutture a basso costo e l’utilizzo di materie prime altamente scalabili è quasi controcorrente, rispetto a quanto stanno facendo i diretti concorrenti nell’ambito dei big data. Secondo il product manager i rivali di Google utilizzano soluzioni NoSQL e offrono Hadoop nel cloud, ma SAP vuole che i suoi clienti spendano milioni su S/4 Hana, Oracle spinge sempre più per Exadata, IBM vende i meriti del mainframe z13 e Microsoft punta su SQL Server.

Google e i servizi di commodity storage per i big data

I dati aziendali sono in continua crescita. O’Connor afferma che nel giro di pochi anni i dati di mercato hanno richiesto 10 volte la quantità di storage e 10 volte la quantità di calcolo per poter essere elaborati.  Per affrontare questa mole di richieste si è reso necessario adottare il paradigma del commodity hardware e scalabilità orizzontale.

Google ha iniziato 20 anni fa e senza dubbio possiede uno dei più grandi database al mondo completamente basato sul commodity storage. L’affidabilità e la sicurezza dei servizi Google sono piuttosto rinomati e ad oggi l’azienda ha reso disponibile le tecnologie interne per la gestione dei big data come servizi cloud esterni. Basti pensare ad esempio a  BigQuery che consente analisi scalabili, il Cloud Pub/Sub il servizio di messaggistica in streaming, Cloud DataFlow il servizio di elaborazione dati in streaming e per ultimo Cloud BigTable. O’Connor sottolinea come questi servizi siano completamente gestiti, altamente scalabili e tutti di classe mondiale. Google sa come gestire i big data e può contare su una grande architettura, è per questo che secondo O’Connor la sua supremazia nell’ambito dei big data è indiscutibile.деньги в долг в черниговетуры греци¤ май 2015прививки дл¤ поездки в танзаниюдам деньги в долг запорожьекредитка дельта банк украина отзывыденьги в долг с 18 лет москвапромодизайнштраф за утерю паспорта украинапутевка в италию в августе 2015 ценыанализ контентаполотенцесушитель ценаэлитные радиаторызащита от излучения телефонамир посуды москвасемейный кодекс алиментыкупить натяжные потолки недорогодиски r13информеры для сайта тиц