Google Cloud presenta BigLake, il nuovo strumento per l’analisi di dati
BigLake, il nuovo strumento per l’analisi di dati archiviati nel Google Cloud.
Dopo l’annuncio all’evento Cloud Data Summit, Google Cloud ha presentato al pubblico l’ultimo suo prodotto, BigLake, il nuovo motore di gestione di dati archiviati per agevolare le società nelle operazioni di database analysis.
L’idea è trasporre l’esperienza di Google nella gestione dei propri stabilimenti di archiviazione dati tramite BigQuery ai file archiviati in Google Cloud, facendo così convergere in un unico servizio le due soluzioni in modo tale da garantire un’unica gestione per tutti i tipi di formati e di sistemi di archiviazione.
Questo tool fa sì che i dati possano essere archiviati indistintamente su BigQuery (Google), AWS S3 (Amazon) o Azure Data Lake Store Gen2 (Microsoft). Grazie a BigLake, gli sviluppatori potranno accedere, tramite un motore uniforme per la gestione dell’archiviazione, a strumenti che eviteranno di dover duplicare o trasportare i dati tra piattaforme diverse.
Queste due ultime operazioni, spiega Gerrit Kazmaier, vicepresidente e direttore generale di Database, Data Analysis and Business Intelligence per Google Cloud, possono comportare rischi e costi aggiuntivi. Inoltre, Kazmaier afferma che BigLake permette di ridurre inefficienze, costi e anche di eliminare il bisogno di duplicare o trasportare dati tra piattaforme, semplificando così l’analisi di dati e risolvendo le preoccupazioni legate alla gestione di sistemi e format diversi.
BigLake, inoltre, garantisce sicurezza a livello di integrità dei dati grazie al supporto di BigQuery Omni, lo strumento di Google per l’analisi multi-cloud che garantisce il trasferimento di dati e di flussi di dati tra soluzioni come Presto, Spark, TensorFlow e Trino. BigLake potrà poi integrare anche Dataplex, strumento di Google con capacità supplementari per la gestione di dati.