Il periodo di riferimento è tra gennaio e luglio 2021. A Guiyang, capoluogo della provincia del Guizhou. Qui gli investimenti nei centri per big data e nelle industrie associate hanno raggiunto i 12,1 miliardi di yuan (circa 1,9 miliardi di dollari). Questo solo nei primi sette mesi di quest’anno.
È quanto reso ieri noto dal governo municipale durante una conferenza stampa. Da gennaio a luglio, la città ha istituito infatti otto centri di big data. Il valore aggiunto dell’industria manifatturiera di informazioni elettroniche ha registrato un aumento del 62% su base annua, in aggiunta alla nuova sottoscrizione di 17 progetti durante il periodo. In qualità di prima zona pilota nazionale di big data della Cina, il Guizhou ha attratto imprese di grande rilievo e istituti di ricerca di fama mondiale. Questi, puntano a stabilire qui i propri centri e sedi regionali di big data.
In statistica e informatica con la locuzione inglese big data (grandi masse di dati) o in italiano megadat), indica genericamente una raccolta di dati informativi. Sono così estesi in termini di volume, velocità e varietà, da richiedere tecnologie e metodi analitici specifici per l’estrazione di valore.
Il termine è utilizzato dunque in riferimento alla capacità (propria della scienza dei dati) di analizzare ovvero estrapolare e mettere in relazione un’enorme mole di dati.
“La città è impegnata a sviluppare tre cluster industriali in tale settore del valore di oltre 100 miliardi di yuan ciascuno. Inoltre, comprendendo data center, centri di produzione di informazioni elettroniche nonché per servizi software e informatici”.
Wu Hongchun, capo dell’ufficio cittadino per lo sviluppo e la gestione dei big data.
Big data
Per poter parlare di big data il volume dei dati deve essere correlato alla capacità del sistema di acquisire le informazioni così come arrivano dalle differenti sorgenti dati che sono adoperate, quindi, un sistema diventa big quando aumenta il volume dei dati e allo stesso tempo aumenta la velocità/flusso di informazioni che il sistema deve poter acquisire e gestire per secondo.
Negli ultimi due anni c’è stato infatti un incremento del 90% dei dati prodotti nel mondo e le aziende potrebbero arrivare a produrre zettabyte di dati, ad esempio considerando dati provenienti da sensori, dati satellitari, finanziari, telefonici, ecc…