Esporta i dati delle tabelle in Cloud Storage (original) (raw)

Questa pagina descrive come esportare o estrarre i dati dalle tabelle BigQuery in Cloud Storage.

Dopo aver caricato i dati in BigQuery, puoi esportarli in diversi formati. BigQuery può esportare fino a 1 GB di dimensioni logiche dei dati in un unico file. Se esporti più di 1 GB di dati, devi esportarli in più file. Quando esporti i dati in più file, le dimensioni dei file variano.

Puoi anche esportare i risultati di una query utilizzando l'istruzioneEXPORT DATA. Puoi utilizzare EXPORT DATA OPTIONSper specificare il formato dei dati esportati.

Infine, puoi utilizzare un servizio come Dataflowper leggere i dati da BigQuery anziché esportarli da BigLake. Per ulteriori informazioni sull'utilizzo di Dataflow per leggere e scrivere in BigQuery, consulta la documentazione di BigQuery I/O.

Limitazioni all'esportazione

Quando esporti i dati da BigQuery, tieni presente quanto segue:

Prima di iniziare

Concedi ruoli Identity and Access Management (IAM) che forniscono agli utenti le autorizzazioni necessarie per eseguire ogni attività descritta in questo documento.

Autorizzazioni obbligatorie

Per eseguire le attività descritte in questo documento, devi disporre delle seguenti autorizzazioni.

Autorizzazioni per esportare i dati da una tabella BigQuery

Per esportare i dati da una tabella BigQuery, devi disporre dell'autorizzazione IAM bigquery.tables.export.

Ciascuno dei seguenti ruoli IAM predefiniti include l'autorizzazione bigquery.tables.export:

Per eseguire un job di estrazione, devi disporre dell'autorizzazione IAM bigquery.jobs.create.

Ognuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per eseguire un job di estrazione:

Autorizzazioni per scrivere i dati nel bucket Cloud Storage

Per scrivere i dati in un bucket Cloud Storage esistente, devi disporre delle seguenti autorizzazioni IAM:

Ognuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per scrivere i dati in un bucket Cloud Storage esistente:

Per saperne di più sui ruoli e sulle autorizzazioni IAM in BigQuery, consulta Ruoli e autorizzazioni predefiniti.

Formati di esportazione e tipi di compressione

BigQuery supporta i seguenti formati di dati e tipi di compressione per i dati esportati.

Formato dei dati Tipi di compressione supportati Dettagli
CSV GZIP Puoi controllare il delimitatore CSV nei dati esportati utilizzando il flag --field_delimiter dello strumento a riga di comando bq o la proprietà del job di estrazione configuration.extract.fieldDelimiter. I dati nidificati e ripetuti non sono supportati.
JSON GZIP Sono supportati i dati nidificati e ripetuti.
Avro DEFLATE, SNAPPY GZIP non è supportato per le esportazioni Avro. Sono supportati i dati nidificati e ripetuti. ConsultaDettagli dell'esportazione Avro.
Parquet SNAPPY, GZIP, ZSTD Sono supportati i dati nidificati e ripetuti. VediDettagli dell'esportazione Parquet.

Esporta i dati

Le sezioni riportate di seguito mostrano come esportare i dati delle tabelle, i metadati delle tabelle e i risultati delle query in Cloud Storage.

Esportare i dati delle tabelle

Puoi esportare i dati della tabella:

Seleziona una delle seguenti opzioni:

Console

  1. Apri la pagina BigQuery nella console Google Cloud .
    Vai alla pagina BigQuery
  2. Nel riquadro a sinistra, fai clic su Explorer:
    Pulsante evidenziato per il riquadro Spazio di esplorazione.
    Se non vedi il riquadro a sinistra, fai clic su Espandi riquadro a sinistra per aprirlo.
  3. Nel riquadro Explorer, espandi il progetto, fai clic su Set di dati e poi sul tuo set di dati.
  4. Fai clic su Panoramica > Tabelle e seleziona una tabella.
  5. Nel riquadro dei dettagli, fai clic su Carica Esporta.
  6. Nella finestra di dialogo Esporta in Google Cloud Storage:
    • Per Posizione GCS, cerca il bucket, la cartella o il file in cui vuoi esportare i dati.
    • Per Formato di esportazione, scegli il formato per i dati esportati: CSV, JSON (delimitato da nuova riga), Avro o Parquet.
    • In Compressione, seleziona un formato di compressione o None per nessuna compressione.
  7. Fai clic su Salva per esportare la tabella.

Per controllare l'avanzamento del job, nel riquadro Explorer, fai clic suCronologia dei job e cerca un job di tipo ESTRAI.

Per esportare le visualizzazioni in Cloud Storage, utilizza l'istruzione EXPORT DATA OPTIONS.

SQL

Utilizza l'istruzione EXPORT DATA. Il seguente esempio esporta i campi selezionati da una tabella denominata mydataset.table1:

  1. Nella console Google Cloud , vai alla pagina BigQuery.
    Vai a BigQuery
  2. Nell'editor di query, inserisci la seguente istruzione:
    EXPORT DATA
    OPTIONS (
    uri = 'gs://bucket/folder/*.csv',
    format = 'CSV',
    overwrite = true,
    header = true,
    field_delimiter = ';')
    AS (
    SELECT field1, field2
    FROM mydataset.table1
    ORDER BY field1
    );
  3. Fai clic su Esegui.

Per saperne di più su come eseguire le query, consulta Eseguire una query interattiva.

bq

Utilizza il comando bq extract con il flag --destination_format.

(Facoltativo) Fornisci il flag --location e imposta il valore sulla tuaposizione.

Altri flag facoltativi includono:

bq extract --location=location
--destination_format format
--compression compression_type
--field_delimiter delimiter
--print_header=boolean
project_id:dataset.table
gs://bucket/filename.ext

Dove:

Esempi:

Ad esempio, il seguente comando esporta mydataset.mytable in un file compresso gzip denominato myfile.csv. myfile.csv è archiviato in un bucket Cloud Storage denominato example-bucket.

bq extract
--compression GZIP
'mydataset.mytable'
gs://example-bucket/myfile.csv

Il formato di destinazione predefinito è CSV. Per esportare in JSON o Avro, utilizza il flag destination_format e impostalo su NEWLINE_DELIMITED_JSONo AVRO. Ad esempio:

bq extract
--destination_format NEWLINE_DELIMITED_JSON
'mydataset.mytable'
gs://example-bucket/myfile.json

Il seguente comando esporta mydataset.mytable in un file Avro compresso utilizzando Snappy. Il file si chiama myfile.avro. myfile.avro viene esportato in un bucket Cloud Storage denominato example-bucket.

bq extract
--destination_format AVRO
--compression SNAPPY
'mydataset.mytable'
gs://example-bucket/myfile.avro

Il seguente comando esporta una singola partizione dimydataset.my_partitioned_table in un file CSV in Cloud Storage:

bq extract
--destination_format CSV
'mydataset.my_partitioned_table$0'
gs://example-bucket/single_partition.csv

API

Per esportare i dati, crea un job extract e compila la configurazione del job.

(Facoltativo) Specifica la tua posizione nella proprietà location nella sezionejobReference della risorsa job.

  1. Crea un job di estrazione che punti ai dati di origine BigQuery e alla destinazione Cloud Storage.
  2. Specifica la tabella di origine utilizzando l'oggetto di configurazione sourceTableche contiene l'ID progetto, l'ID set di dati e l'ID tabella.
  3. La proprietà destination URI(s)deve essere completa, nel formatogs://bucket/filename.ext. Ogni URI può contenere un carattere jolly "*" e deve essere dopo il nome del bucket.
  4. Specifica il formato dei dati impostando la proprietàconfiguration.extract.destinationFormat. Ad esempio, per esportare un file JSON, imposta questa proprietà sul valore NEWLINE_DELIMITED_JSON.
  5. Per controllare lo stato del job, chiama jobs.get(job_id)con l'ID del job restituito dalla richiesta iniziale.
    • Se status.state = DONE, il job è stato completato correttamente.
    • Se è presente la proprietà status.errorResult, la richiesta non è riuscita e l'oggetto includerà informazioni che descrivono cosa è andato storto.
    • Se status.errorResult non è presente, il job è stato completato correttamente, anche se potrebbero essersi verificati alcuni errori non fatali. Gli errori non irreversibili sono elencati nella proprietà status.errors dell'oggetto job restituito.

Note sull'API:

C#

Prima di provare questo esempio, segui le istruzioni di configurazione di C# nellaguida rapida di BigQuery per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery C#.

Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vediConfigurare l'autenticazione per le librerie client.

Vai

Prima di provare questo esempio, segui le istruzioni di configurazione di Go nellaguida rapida di BigQuery per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Go.

Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vediConfigurare l'autenticazione per le librerie client.

Java

Prima di provare questo esempio, segui le istruzioni di configurazione di Java nellaguida rapida di BigQuery per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Java.

Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vediConfigurare l'autenticazione per le librerie client.

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nellaguida rapida di BigQuery per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Node.js.

Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vediConfigurare l'autenticazione per le librerie client.

PHP

Prima di provare questo esempio, segui le istruzioni di configurazione di PHP nellaguida rapida di BigQuery per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery PHP.

Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vediConfigurare l'autenticazione per le librerie client.

Python

Prima di provare questo esempio, segui le istruzioni di configurazione di Python nellaguida rapida di BigQuery per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Python.

Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vediConfigurare l'autenticazione per le librerie client.

Ruby

Prima di provare questo esempio, segui le istruzioni di configurazione di Ruby nellaguida rapida di BigQuery per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Ruby.

Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vediConfigurare l'autenticazione per le librerie client.

Esporta i metadati della tabella

Per esportare i metadati della tabella dalle tabelle Iceberg, utilizza la seguente istruzione SQL:

EXPORT TABLE METADATA FROM [[PROJECT_NAME.]DATASET_NAME.]TABLE_NAME;

Sostituisci quanto segue:

I metadati esportati si trovano nella cartella STORAGE_URI/metadata, dove STORAGE_URI è la posizione di archiviazione della tabella impostata nelle opzioni.

Esportare i risultati della query

Puoi esportare i risultati della query in Cloud Storage nella console Google Cloud con i seguenti passaggi:

  1. Apri la pagina BigQuery nella console Google Cloud .
    Vai alla pagina BigQuery
  2. Fai clic su Query SQL.
  3. Inserisci una query GoogleSQL valida nell'area di testo dell'editor di query.
  4. Fai clic su Esegui.
  5. Quando vengono restituiti i risultati, fai clic su Salva risultati > Cloud Storage.
  6. Nella finestra di dialogo Esporta in Google Cloud Storage:
    • Per Posizione GCS, cerca il bucket, la cartella o il file in cui vuoi esportare i dati.
    • Per Formato di esportazione, scegli il formato per i dati esportati: CSV, JSON (delimitato da nuova riga), Avro o Parquet.
    • In Compressione, seleziona un formato di compressione o None per nessuna compressione.
  7. Fai clic su Salva per esportare i risultati della query.

Per controllare l'avanzamento del job, espandi il riquadro Cronologia dei job e cerca il job con il tipo EXTRACT.

Dettagli esportazione Avro

BigQuery esprime i dati formattati in Avro nei seguenti modi:

I tipi di dati NUMERIC(P[, S]) e BIGNUMERIC(P[, S]) con parametri trasferiscono i parametri di precisione e scalabilità al tipo logico decimale Avro.

Il formato Avro non può essere utilizzato in combinazione con la compressione GZIP. Per comprimere i dati Avro, utilizza lo strumento a riga di comando bq o l'API e specifica uno dei tipi di compressione supportati per i dati Avro: DEFLATE o SNAPPY.

Dettagli esportazione Parquet

BigQuery converte i tipi di dati GoogleSQL nei seguenti tipi di dati Parquet:

Tipo di dati BigQuery Tipo primitivo Parquet Tipo logico Parquet
Numero intero INT64 NONE
Numerico FIXED_LEN_BYTE_ARRAY DECIMAL (precision = 38, scale = 9)
Numerico(P[, S]) FIXED_LEN_BYTE_ARRAY DECIMAL (precision = P, scale = S)
BigNumeric FIXED_LEN_BYTE_ARRAY DECIMAL (precision = 76, scale = 38)
BigNumeric(P[, S]) FIXED_LEN_BYTE_ARRAY DECIMAL (precision = P, scale = S)
Virgola mobile FLOAT NONE
Booleano BOOLEAN NONE
Stringa BYTE_ARRAY STRING (UTF8)
Byte BYTE_ARRAY NONE
Data INT32 DATE
Data/ora INT64 TIMESTAMP (isAdjustedToUTC = false, unit = MICROS)
Ora INT64 TIME (isAdjustedToUTC = true, unit = MICROS)
Timestamp INT64 TIMESTAMP (isAdjustedToUTC = false, unit = MICROS)
Area geografica BYTE_ARRAY GEOGRAPHY (edges = spherical)

Lo schema Parquet rappresenta i dati nidificati come un gruppo e i record ripetuti come gruppi ripetuti. Per ulteriori informazioni sull'utilizzo di dati nidificati e ripetuti in BigQuery, consultaSpecifica di colonne nidificate e ripetute.

Puoi utilizzare le seguenti soluzioni alternative per i tipi di DATETIME:

Il tipo logico GEOGRAPHY è rappresentato dai metadatiGeoParquet aggiunti ai file esportati.

Esportazione dei dati in uno o più file

La proprietà destinationUris indica una o più posizioni e nomi di file in cui BigQuery deve esportare i file.

BigQuery supporta un singolo operatore jolly (*) in ogni URI. Il carattere jolly può essere visualizzato in qualsiasi punto del componente del nome file. L'utilizzo dell'operatore jolly indica a BigQuery di creare più file suddivisi in base al pattern fornito. L'operatore jolly viene sostituito con un numero (a partire da 0), con riempimento a sinistra fino a 12 cifre. Ad esempio, un URI con un carattere jolly alla fine del nome file creerebbe file con 000000000000 aggiunto al primo file e 000000000001 aggiunto al secondo file, continuando con questo pattern.

La tabella seguente descrive diverse opzioni possibili per la proprietà destinationUris:

Opzioni destinationUris
URI singolo Utilizza un singolo URI se esporti dati di tabelle di dimensioni pari o inferiori a 1 GB. Questa opzione è il caso d'uso più comune, poiché i dati esportati sono generalmente inferiori al valore massimo di 1 GB. Questa opzione non è supportata per l'istruzione EXPORT DATA; devi utilizzare un singolo URI con caratteri jolly. Definizione della proprietà: ['gs://my-bucket/file-name.json'] Crea: gs://my-bucket/file-name.json
URI con un solo carattere jolly È possibile utilizzare un solo carattere jolly nel componente del nome file dell'URI. Utilizza un singolo URI con caratteri jolly se ritieni che i dati esportati supereranno il valore massimo di 1 GB. BigQuery suddivide i dati in più file in base al pattern fornito. Le dimensioni dei file esportati variano. Definizione della proprietà: ['gs://my-bucket/file-name-*.json'] Crea: gs://my-bucket/file-name-000000000000.json gs://my-bucket/file-name-000000000001.json gs://my-bucket/file-name-000000000002.json ... ['gs://my-bucket/*'] Crea: gs://my-bucket/000000000000 gs://my-bucket/000000000001 gs://my-bucket/000000000002 ...

Limitare le dimensioni del file esportato

Quando esporti più di 1 GB di dati in una singola esportazione, devi utilizzare un carattere jolly per esportare i dati in più file e le dimensioni dei file variano. Se devi limitare le dimensioni massime di ogni file esportato, un'opzione è partizionare i dati in modo casuale ed esportare ogni partizione in un file:

  1. Determina il numero di partizioni necessarie, che è uguale alla dimensione totale dei dati divisa per la dimensione del file esportato scelta. Ad esempio, se hai 8000 MB di dati e vuoi che ogni file esportato sia di circa 20 MB, ti servono 400 partizioni.
  2. Crea una nuova tabella partizionata e raggruppata in cluster in base a una nuova colonna generata casualmente denominata export_id. L'esempio seguente mostra come creare un nuovo processed_table da una tabella esistente chiamata source_tableche richiede n partizioni per raggiungere la dimensione del file scelta:
    CREATE TABLE my_dataset.processed_table
    PARTITION BY RANGE_BUCKET(export_id, GENERATE_ARRAY(0, n, 1))
    CLUSTER BY export_id
    AS (
    SELECT , CAST(FLOOR(nRAND()) AS INT64) AS export_id
    FROM my_dataset.source_table
    );
  3. Per ogni numero intero i compreso tra 0 e n-1, esegui un'istruzione EXPORT DATAnella seguente query:
    SELECT * EXCEPT(export_id)
    FROM my_dataset.processed_table
    WHERE export_id = i;

Caso d'uso di esempio

Questo esempio mostra come esportare i dati in Cloud Storage.

Supponiamo che tu stia trasmettendo in streaming i dati a Cloud Storage dai log degli endpoint in modo continuo. Uno snapshot giornaliero deve essere esportato in Cloud Storage per scopi di backup e archiviazione. La scelta migliore è unjob di estrazionesoggetto a determinatequoteelimitazioni.

Invia un job di estrazione con l'API o le librerie client, passando un ID univoco come jobReference.jobId. I job di estrazione sono asincroni.Controlla lo stato del jobutilizzando l'ID univoco del job utilizzato per crearlo. Il job è stato completato correttamente se status.status è DONE. Se è presente status.errorResult, il job non è riuscito e deve essere riprovato.

Elaborazione dei dati in batch

Supponiamo che un job batch notturno venga utilizzato per caricare i dati entro una scadenza fissa. Al termine di questo job di caricamento, una tabella con le statistiche viene materializzata da una query come descritto nella sezione precedente. I dati di questa tabella vengono recuperati e compilati in un report PDF e inviati a un ente regolatore.

Poiché la quantità di dati da leggere è ridotta, utilizza l'API tabledata.list per recuperare tutte le righe della tabella in formato dizionario JSON. Se sono presenti più pagine di dati, i risultati hanno la proprietà pageToken impostata. Per recuperare la pagina successiva dei risultati, effettua un'altra chiamata tabledata.liste includi il valore del token come parametro pageToken. Se la chiamata API non va a buon fine e genera unerrore 5xx, riprova con backoff esponenziale. Non è possibile riprovare la maggior parte degli errori 4xx. Per un migliore disaccoppiamento dell'esportazione BigQuery e della generazione di report, i risultati devono essere salvati su disco.

Criteri per le quote

Per informazioni sulle quote dei job di estrazione, consulta Job di estrazionenella pagina Quote e limiti.

L'utilizzo per i job di estrazione è disponibile in INFORMATION_SCHEMA. La voce del job nelle tabelle di sistema JOBS_BY_* per il job di estrazione contiene un valore total_bytes_processed che può essere utilizzato per monitorare l'utilizzo aggregato per garantire che rimanga al di sotto di 50 TiB al giorno. Per scoprire come eseguire query sulla visualizzazioneINFORMATION_SCHEMA.JOBS per ottenere il valore total_bytes_processed, consulta loschema INFORMATION_SCHEMA.JOBS.

Visualizzare l'utilizzo attuale della quota

Puoi visualizzare l'utilizzo corrente dei job di query, caricamento, estrazione o copia eseguendo una query INFORMATION_SCHEMA per visualizzare i metadati relativi ai job eseguiti in un periodo di tempo specificato. Puoi confrontare l'utilizzo attuale con il limite di quota per determinare l'utilizzo della quota per un particolare tipo di job. La seguente query di esempio utilizza la vista INFORMATION_SCHEMA.JOBS per elencare il numero di job di query, caricamento, estrazione e copia per progetto:

SELECT sum(case when job_type="QUERY" then 1 else 0 end) as QRY_CNT, sum(case when job_type="LOAD" then 1 else 0 end) as LOAD_CNT, sum(case when job_type="EXTRACT" then 1 else 0 end) as EXT_CNT, sum(case when job_type="COPY" then 1 else 0 end) as CPY_CNT FROM region-REGION_NAME.INFORMATION_SCHEMA.JOBS_BY_PROJECT WHERE date(creation_time)= CURRENT_DATE()

Puoi configurare un criterio di avviso di Cloud Monitoring che monitora il numero di byte esportati.

  1. Nella Google Cloud console, vai alla paginaAvvisi:
    Vai ad Avvisi
    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitoloMonitoring.
  2. Nella pagina Avvisi, fai clic su Crea criterio.
  3. Nella sezione Modalità di configurazione dei criteri, selezionaEditor di codice (MQL o PromQL).
  4. Nell'editor di query PromQL, inserisci la seguente query:
(  
  sum by (project_id, quota_metric, location) (increase({"serviceruntime.googleapis.com/quota/rate/net_usage", monitored_resource="consumer_quota", service="bigquery.googleapis.com"}[1m]))  
  /  
  max by (project_id, quota_metric, location) ({"serviceruntime.googleapis.com/quota/limit", monitored_resource="consumer_quota", service="bigquery.googleapis.com", limit_name="ExtractBytesPerDay"})  
) > 0.01  

Se l'opzione Esecuzione automatica non è attivata, fai clic su Esegui query. 5. Configura il resto dell'avviso e fai clic su Crea policy.

Per i passaggi dettagliati sulla creazione di policy di avviso basate su PromQL, consulta Creare policy di avviso basate su PromQL (console).

Risoluzione dei problemi

Diagnostica e risolvi i problemi relativi ai job di estrazione.

Diagnosticare i problemi utilizzando Esplora log

Per diagnosticare i problemi relativi ai job di estrazione, puoi utilizzare Esplora logper esaminare i log di un job di estrazione specifico e identificare possibili errori. Il seguente filtro di Esplora log restituisce informazioni sui job di estrazione:

resource.type="bigquery_resource"
protoPayload.methodName="jobservice.insert"
(protoPayload.serviceData.jobInsertRequest.resource.jobConfiguration.query.query=~"EXPORT" OR
protoPayload.serviceData.jobCompletedEvent.eventName="extract_job_completed" OR
protoPayload.serviceData.jobCompletedEvent.job.jobConfiguration.query.query=~"EXPORT")

BigQuery restituisce questo errore quando l'estrazione supera il limite giornaliero predefinito di 50 TiB in un progetto. Per ulteriori informazioni sui limiti dei job di estrazione, vedi Job di estrazione.

Messaggio di errore

Your usage exceeded quota for ExtractBytesPerDay

Se esporti una tabella di dimensioni superiori a 50 TiB, l'esportazione non va a buon fine perchésupera il limite di estrazione. Se vuoiesportare i dati della tabellaper partizioni specifiche della tabella, puoi utilizzare undecoratore di partizioni per identificare le partizioni da esportare.

Se vuoi raccogliere i dati sull'utilizzo delle esportazioni negli ultimi giorni, puoi provare a:

In alternativa, puoi utilizzare l'Esplora jobcon filtri come Bytes processed more than per filtrare i job di elaborazione elevata per un periodo di tempo specificato.

Un modo per risolvere questo errore di quota è creare una prenotazione di slot e assegnare il tuo progetto alla prenotazione con il tipo di job PIPELINE. Questo metodo può ignorare il controllo del limite perché utilizza le prenotazioni dedicate anziché un pool di slot condiviso gratuito. Se necessario, la prenotazione può essere eliminata se vuoi utilizzare un pool di slot condiviso in un secondo momento.

Per approcci alternativi che consentono di esportare più di 50 TiB, consulta la sezione delle note in Estrai job.

Prezzi

Per informazioni sui prezzi dell'esportazione dei dati, consulta la pagina Prezzi di BigQuery.

Una volta esportati i dati, ti viene addebitato il costo di archiviazione dei dati in Cloud Storage. Per maggiori informazioni, consulta Prezzi di Cloud Storage.

Sicurezza delle tabelle

Per controllare l'accesso alle tabelle in BigQuery, vediControllare l'accesso alle risorse con IAM.

Passaggi successivi