テーブルデータを Cloud Storage にエクスポートする (original) (raw)

このページでは、BigQuery テーブルから Cloud Storage にデータをエクスポートまたは抽出する方法について説明します。

BigQuery にデータを読み込んだ後、さまざまな形式でデータをエクスポートできます。BigQuery は最大 1 GB のサイズの論理データを 1 つのファイルにエクスポートできます。1 GB を超えるデータをエクスポートする場合は、データを複数のファイルにエクスポートする必要があります。データを複数のファイルにエクスポートすると、さまざまなサイズのファイルになります。

また、EXPORT DATA ステートメントを使用して、クエリの結果をエクスポートすることもできます。EXPORT DATA OPTIONS を使用して、エクスポートされるデータの形式を指定できます。

さらに、Dataflow などのサービスを使用して、BigLake からエクスポートするのではなく、BigQuery からデータを読み取ることができます。Dataflow を使用して BigQuery でデータの読み取りと書き込みを行う方法の詳細については、BigQuery I/O のドキュメントをご覧ください。

エクスポートの制限事項

BigQuery からデータをエクスポートするときは、次の点に注意してください。

始める前に

このドキュメントの各タスクを実行するために必要な権限をユーザーに与える Identity and Access Management(IAM)のロールを付与します。

必要な権限

このドキュメントのタスクを実行するには、次の権限が必要です。

BigQuery テーブルからデータをエクスポートするための権限

BigQuery テーブルからデータをエクスポートするには、bigquery.tables.export IAM 権限が必要です。

次に示す各 IAM 事前定義ロールには bigquery.tables.export 権限が含まれています。

抽出ジョブを実行するには、bigquery.jobs.create IAM 権限が必要です。

次の IAM 事前定義ロールには、抽出ジョブの実行に必要な権限が含まれています。

Cloud Storage バケットにデータを書き込む権限

既存の Cloud Storage バケットにデータを書き込むには、次の IAM 権限が必要です。

次の IAM 事前定義ロールには、既存の Cloud Storage バケットにデータを書き込むために必要な権限が含まれています。

BigQuery での IAM のロールと権限について詳しくは、事前定義ロールと権限をご覧ください。

エクスポート形式と圧縮形式

BigQuery は、エクスポートされるデータに対して次のデータ形式と圧縮形式をサポートしています。

データ形式 サポートされている圧縮タイプ 詳細
CSV GZIP エクスポートされるデータの CSV 区切り文字を制御するには、--field_delimiter コマンドライン ツール フラグまたは configuration.extract.fieldDelimiter 抽出ジョブ プロパティを使用します。 ネストされたデータや繰り返しデータは、サポートされていません。
JSON GZIP ネストされたデータと繰り返しデータはサポートされます。
Avro DEFLATE、SNAPPY Avro のエクスポートでは、GZIP はサポートされていません。 ネストされたデータと繰り返しデータはサポートされます。Avro のエクスポートの詳細をご覧ください。
Parquet SNAPPY、GZIP、ZSTD ネストされたデータと繰り返しデータはサポートされます。Parquet エクスポートの詳細をご覧ください。

データのエクスポート

次のセクションでは、テーブルデータ、テーブル メタデータ、クエリ結果を Cloud Storage にエクスポートする方法について説明します。

テーブルデータをエクスポートする

テーブルデータは次の方法でエクスポートできます。

次のいずれかを選択します。

コンソール

  1. Google Cloud コンソールで [BigQuery] ページを開きます。
    [BigQuery] ページに移動
  2. 左側のペインで、 [エクスプローラ] をクリックします。
    ハイライト表示されたエクスプローラ ペインのボタン。
    左側のペインが表示されていない場合は、 [左ペインを開く] をクリックしてペインを開きます。
  3. [エクスプローラ] ペインでプロジェクトを開き、[データセット] をクリックして、データセットをクリックします。
  4. [概要] > [テーブル] をクリックし、テーブルを選択します。
  5. 詳細ペインで、upload(エクスポート)をクリックします。
  6. [Google Cloud Storage にエクスポート] ダイアログで、次の操作を行います。
    • [GCS のロケーション] で、データのエクスポート先となるバケット、フォルダ、またはファイルを参照します。
    • [エクスポート形式] で、エクスポートするデータの形式を CSV、JSON(改行区切り)、Avro、または Parquet から選択します。
    • [圧縮] で、圧縮形式を選択するか、None を選択して圧縮なしにします。
  7. [保存] をクリックしてテーブルをエクスポートします。

ジョブの進行状況を確認するには、[エクスプローラ] ペインで [ジョブ履歴] をクリックし、EXTRACT タイプのジョブを探します。

ビューを Cloud Storage にエクスポートするには、EXPORT DATA OPTIONS ステートメントを使用します。

SQL

EXPORT DATA ステートメントを使用します。次の例では、mydataset.table1 という名前のテーブルから選択したフィールドをエクスポートします。

  1. Google Cloud コンソールで、[BigQuery] ページに移動します。
    [BigQuery] に移動
  2. クエリエディタで次のステートメントを入力します。
    EXPORT DATA
    OPTIONS (
    uri = 'gs://bucket/folder/*.csv',
    format = 'CSV',
    overwrite = true,
    header = true,
    field_delimiter = ';')
    AS (
    SELECT field1, field2
    FROM mydataset.table1
    ORDER BY field1
    );
  3. [実行] をクリックします。

クエリの実行方法については、インタラクティブ クエリを実行するをご覧ください。

bq

bq extract コマンドを使用し、--destination_format フラグを指定します。

(省略可)--location フラグを指定して、その値をロケーションに設定します。

次のフラグを使用することもできます。

bq extract --location=location
--destination_format format
--compression compression_type
--field_delimiter delimiter
--print_header=boolean
project_id:dataset.table
gs://bucket/filename.ext

ここで

例:

たとえば、次のコマンドは、mydataset.mytablemyfile.csv という名前の gzip 圧縮ファイルにエクスポートします。myfile.csv は、example-bucket という名前の Cloud Storage バケットに保存されます。

bq extract
--compression GZIP
'mydataset.mytable'
gs://example-bucket/myfile.csv

デフォルトの出力形式は CSV です。JSON または Avro 形式でエクスポートするには、destination_format フラグを NEWLINE_DELIMITED_JSON または AVRO に設定します。次に例を示します。

bq extract
--destination_format NEWLINE_DELIMITED_JSON
'mydataset.mytable'
gs://example-bucket/myfile.json

次のコマンドは、mydataset.mytable を、Snappy を使用して圧縮された Avro ファイルにエクスポートします。ファイル名は、myfile.avro になります。myfile.avro は、example-bucket という名前の Cloud Storage バケットにエクスポートされます。

bq extract
--destination_format AVRO
--compression SNAPPY
'mydataset.mytable'
gs://example-bucket/myfile.avro

次のコマンドは、mydataset.my_partitioned_table の単一パーティションを Cloud Storage の CSV ファイルにエクスポートします。

bq extract
--destination_format CSV
'mydataset.my_partitioned_table$0'
gs://example-bucket/single_partition.csv

API

データをエクスポートするには、extract ジョブを作成し、ジョブ構成に入力します。

(省略可)ジョブリソースjobReference セクションにある location プロパティでロケーションを指定します。

  1. 抽出ジョブを作成し、抽出元の BigQuery データと抽出先の Cloud Storage を指定します。
  2. プロジェクト ID、データセット ID、テーブル ID を含む sourceTable 構成オブジェクトを使用して、ソーステーブルを指定します。
  3. destination URI(s) プロパティは、gs://bucket/filename.ext の形式で完全修飾する必要があります。各 URI に '*' ワイルドカード文字を 1 つ含めることができますが、このワイルドカードはバケット名より後にある必要があります。
  4. configuration.extract.destinationFormat プロパティを設定して、データ形式を指定します。たとえば、JSON ファイルとしてエクスポートするには、このプロパティの値を NEWLINE_DELIMITED_JSON に設定します。
  5. ジョブ ステータスを確認するには、最初のリクエストで返されるジョブの ID を指定して jobs.get(job_id) を呼び出します。
    • status.state = DONE である場合、ジョブは正常に完了しています。
    • status.errorResult プロパティが存在する場合は、リクエストが失敗したことを意味し、該当するオブジェクトにエラーを説明する情報が格納されます。
    • status.errorResult が存在しない場合、ジョブは正常に完了したものの、致命的でないエラーが発生した可能性があります。致命的でないエラーは、返されたジョブ オブジェクトの status.errors プロパティに格納されています。

API に関する注:

C#

このサンプルを試す前に、クライアント ライブラリを使用した BigQuery クイックスタートにある C# の設定手順を完了してください。詳細については、BigQuery C# API のリファレンス ドキュメントをご覧ください。

BigQuery に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、クライアント ライブラリの認証情報を設定するをご覧ください。

Go

このサンプルを試す前に、クライアント ライブラリを使用した BigQuery クイックスタートにある Go の設定手順を完了してください。詳細については、BigQuery Go API のリファレンス ドキュメントをご覧ください。

BigQuery に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、クライアント ライブラリの認証情報を設定するをご覧ください。

Java

このサンプルを試す前に、クライアント ライブラリを使用した BigQuery クイックスタートにある Java の設定手順を完了してください。詳細については、BigQuery Java API のリファレンス ドキュメントをご覧ください。

BigQuery に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、クライアント ライブラリの認証情報を設定するをご覧ください。

Node.js

このサンプルを試す前に、クライアント ライブラリを使用した BigQuery クイックスタートにある Node.js の設定手順を完了してください。詳細については、BigQuery Node.js API のリファレンス ドキュメントをご覧ください。

BigQuery に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、クライアント ライブラリの認証情報を設定するをご覧ください。

PHP

このサンプルを試す前に、クライアント ライブラリを使用した BigQuery クイックスタートにある PHP の設定手順を完了してください。詳細については、BigQuery PHP API のリファレンス ドキュメントをご覧ください。

BigQuery に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、クライアント ライブラリの認証情報を設定するをご覧ください。

Python

このサンプルを試す前に、クライアント ライブラリを使用した BigQuery クイックスタートにある Python の設定手順を完了してください。詳細については、BigQuery Python API のリファレンス ドキュメントをご覧ください。

BigQuery に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、クライアント ライブラリの認証情報を設定するをご覧ください。

Ruby

このサンプルを試す前に、クライアント ライブラリを使用した BigQuery クイックスタートにある Ruby の設定手順を完了してください。詳細については、BigQuery Ruby API のリファレンス ドキュメントをご覧ください。

BigQuery に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、クライアント ライブラリの認証情報を設定するをご覧ください。

テーブル メタデータをエクスポートする

Iceberg テーブルからテーブル メタデータをエクスポートするには、次の SQL ステートメントを使用します。

EXPORT TABLE METADATA FROM [[PROJECT_NAME.]DATASET_NAME.]TABLE_NAME;

次のように置き換えます。

エクスポートされたメタデータは STORAGE_URI/metadata フォルダにあります。ここで、STORAGE_URI はオプションで設定されたテーブルのストレージ ロケーションです。

クエリ結果をエクスポートする

次の手順により、 Google Cloud コンソールでクエリ結果を Cloud Storage にエクスポートできます。

  1. Google Cloud コンソールで [BigQuery] ページを開きます。
    [BigQuery] ページに移動
  2. [ SQL クエリ] をクリックします。
  3. [クエリエディタ] テキスト領域に有効な GoogleSQL クエリを入力します。
  4. [実行] をクリックします。
  5. 結果が返されたら、[結果を保存] > [Cloud Storage] をクリックします。
  6. [Google Cloud Storage にエクスポート] ダイアログで、次の操作を行います。
    • [GCS のロケーション] で、データのエクスポート先となるバケット、フォルダ、またはファイルを参照します。
    • [エクスポート形式] で、エクスポートするデータの形式を CSV、JSON(改行区切り)、Avro、または Parquet から選択します。
    • [圧縮] で、圧縮形式を選択するか、[None] を選択して圧縮なしにします。
  7. [保存] をクリックしてクエリ結果をエクスポートします。

ジョブの進行状況を確認するには、[ジョブ履歴] ペインを開き、EXTRACT タイプのジョブを探します。

Avro エクスポートの詳細

BigQuery は次の方法で Avro 形式のデータを表現します。

パラメータ化された NUMERIC(P[, S]) データ型と BIGNUMERIC(P[, S]) データ型の場合、精度とスケール型のパラメータが Avro の decimal 論理型に変換されます。

Avro 形式を GZIP 圧縮とともに使用することはできません。Avro データを圧縮するには、bq コマンドライン ツールまたは API を使用して、Avro データでサポートされている圧縮タイプの 1 つ(DEFLATE または SNAPPY)を指定します。

Parquet エクスポートの詳細

BigQuery は、GoogleSQL のデータ型を次の Parquet データ型に変換します。

BigQuery のデータ型 Parquet のプリミティブ型 Parquet の論理型
整数 INT64 NONE
数値 FIXED_LEN_BYTE_ARRAY DECIMAL (precision = 38, scale = 9)
Numeric(P[, S]) FIXED_LEN_BYTE_ARRAY DECIMAL (precision = P, scale = S)
BigNumeric FIXED_LEN_BYTE_ARRAY DECIMAL (precision = 76, scale = 38)
BigNumeric(P[, S]) FIXED_LEN_BYTE_ARRAY DECIMAL (precision = P, scale = S)
浮動小数点数 FLOAT NONE
ブール値 BOOLEAN NONE
文字列 BYTE_ARRAY STRING (UTF8)
バイト BYTE_ARRAY NONE
日付 INT32 DATE
日時 INT64 TIMESTAMP (isAdjustedToUTC = false, unit = MICROS)
時間 INT64 TIME (isAdjustedToUTC = true, unit = MICROS)
タイムスタンプ INT64 TIMESTAMP (isAdjustedToUTC = false, unit = MICROS)
地域 BYTE_ARRAY GEOGRAPHY (edges = spherical)

Parquet スキーマでは、ネストされたデータをグループとして表し、繰り返しレコードを繰り返しグループとして表します。BigQuery でネストされた繰り返しデータを使用する詳しい方法については、ネストされた繰り返し列の指定をご覧ください。

DATETIME 型には、次の回避策を使用できます。

GEOGRAPHY 論理型は、エクスポートされたファイルに追加された GeoParquet メタデータで表されます。

1 つまたは複数のファイルへのデータのエクスポート

destinationUris プロパティには、BigQuery によるファイルの 1 つ以上のエクスポート先とファイル名を指定します。

BigQuery は URI ごとに 1 つのワイルドカード演算子(*)をサポートします。ワイルドカードは、ファイル名コンポーネントの任意の場所に使用できます。ワイルドカード演算子を使用すると、指定したパターンに基づいて複数の分割ファイルが作成されます。ワイルドカード演算子は、左側に 0 が埋められた 12 桁の数値(0 から始まるシーケンス番号)に置き換えられます。たとえば、ファイル名の最後にワイルドカードがある URI の場合、最初のファイルに 000000000000 が追加され、2 番目のファイルに 000000000001 が追加されます。このパターンが続きます。

destinationUris プロパティで使用できるオプションを次の表に示します。

destinationUris オプション
単一の URI 1 GB 以下のテーブルデータをエクスポートする場合は、単一の URI を使用します。ほとんどの場合、エクスポートされるデータは最大値の 1 GB に満たないため、このオプションは最も一般的なユースケースとなります。このオプションは、EXPORT DATA ステートメントではサポートされていません。1 つのワイルドカード URI を使用する必要があります。 プロパティの定義: ['gs://my-bucket/file-name.json'] 作成されるファイル: gs://my-bucket/file-name.json
単一のワイルドカード URI 単一のワイルドカードは、URI のファイル名コンポーネントでのみ使用できます。 エクスポートされるデータが最大値の 1 GB を超えそうな場合は、単一のワイルドカード URI を使用します。データは、指定したパターンに基づいて複数のファイルに分割されます。エクスポートされたファイルのサイズは一定ではありません。 プロパティの定義: ['gs://my-bucket/file-name-*.json'] 作成されるファイル: gs://my-bucket/file-name-000000000000.json gs://my-bucket/file-name-000000000001.json gs://my-bucket/file-name-000000000002.json ... ['gs://my-bucket/*'] 作成されるファイル: gs://my-bucket/000000000000 gs://my-bucket/000000000001 gs://my-bucket/000000000002 ...

エクスポートするファイルのサイズを制限する

1 回に 1 GB を超えるデータをエクスポートする場合は、ワイルドカードを使用して複数のファイルにデータをエクスポートする必要があります。また、ファイルサイズは異なります。エクスポートする各ファイルの最大サイズを制限する必要がある場合は、データをランダムに分割してから各パーティションをファイルにエクスポートするという方法があります。

  1. 必要なパーティションの数を決定します。これは、データの合計サイズを選択したエクスポート ファイルのサイズで割った値です。たとえば、8,000 MB のデータがあり、各エクスポート ファイルを約 20 MB にする場合、400 パーティションが必要です。
  2. export_id というランダムに生成された新しい列でパーティション分割およびクラスタ化される、新しいテーブルを作成します。 次の例は、選択したファイルサイズにするために n パーティションを必要とする既存のテーブル source_table から新しい processed_table を作成する方法を示しています。
    CREATE TABLE my_dataset.processed_table
    PARTITION BY RANGE_BUCKET(export_id, GENERATE_ARRAY(0, n, 1))
    CLUSTER BY export_id
    AS (
    SELECT , CAST(FLOOR(nRAND()) AS INT64) AS export_id
    FROM my_dataset.source_table
    );
  3. 0 から n-1 までの整数 i ごとに、次のクエリで EXPORT DATA ステートメントを実行します。
    SELECT * EXCEPT(export_id)
    FROM my_dataset.processed_table
    WHERE export_id = i;

使用例

この例は、Cloud Storage にデータをエクスポートする方法を示しています。

エンドポイント ログから Cloud Storage に継続的にデータをストリーミングしているとします。バックアップとアーカイブの目的で、毎日のスナップショットが Cloud Storage にエクスポートされます。最適な選択は、特定の割り当て制限に従う必要がある抽出ジョブです。

jobReference.jobId として一意の ID を渡し、API またはクライアント ライブラリを使用して抽出ジョブを送信します。抽出ジョブは非同期です。ジョブの作成に使用された一意のジョブ ID を使用して、ジョブのステータスを確認します。**status.status** が DONE の場合、ジョブは正常に完了しています。**status.errorResult** が存在する場合は、ジョブが失敗しているため、再試行する必要があります。

バッチデータ処理

決められた期限までにデータを読み込むために、夜間のバッチジョブを使用するとします。この読み込みジョブが完了すると、前のセクションで説明したように、統計情報を含むテーブルがクエリから実体化されます。このテーブルのデータは、取得して PDF レポートにコンパイルし、規制機関に送信されます。

読み取る必要があるデータの量は少ないため、tabledata.list API を使用して、テーブルのすべての行を JSON 辞書形式で取得します。データページが複数ある場合は、結果に pageToken プロパティが設定されます。次のページの結果を取得するには、別の tabledata.list 呼び出しを行い、トークン値を pageToken パラメータとして指定します。API 呼び出しが 5xx エラーで失敗した場合は、指数バックオフで再試行します。ほとんどの 4xx エラーは再試行できません。BigQuery エクスポートとレポート生成をより適切に分離するには、結果をディスクに保存する必要があります。

割り当てポリシー

抽出ジョブの割り当てについては、「割り当てと上限」のページの抽出ジョブをご覧ください。

抽出の使用状況は INFORMATION_SCHEMA で確認できます。抽出ジョブの JOBS_BY_* システム テーブルのジョブエントリには、合計使用量をモニタリングして、1 日あたり 50 TiB 未満にするために使用できる total_bytes_processed 値が含まれます。INFORMATION_SCHEMA.JOBS ビューに対してクエリを実行して total_bytes_processed 値を取得する方法については、INFORMATION_SCHEMA.JOBS スキーマをご覧ください。

現在の割り当て使用量を確認する

クエリ、読み込み、抽出、コピージョブの現在の使用状況を確認するには、INFORMATION_SCHEMA クエリを実行して、指定した期間に実行されたジョブに関するメタデータを表示します。現在の使用量と割り当て上限を比較することで、特定の種類のジョブの割り当て使用量を確認できます。次のクエリの例では、INFORMATION_SCHEMA.JOBS ビューを使用して、プロジェクトごとにクエリ、読み込み、抽出、コピーの各ジョブの数を一覧表示します。

SELECT sum(case when job_type="QUERY" then 1 else 0 end) as QRY_CNT, sum(case when job_type="LOAD" then 1 else 0 end) as LOAD_CNT, sum(case when job_type="EXTRACT" then 1 else 0 end) as EXT_CNT, sum(case when job_type="COPY" then 1 else 0 end) as CPY_CNT FROM region-REGION_NAME.INFORMATION_SCHEMA.JOBS_BY_PROJECT WHERE date(creation_time)= CURRENT_DATE()

エクスポートされたバイト数をモニタリングする Cloud Monitoring アラート ポリシーを設定できます。

  1. Google Cloud コンソールで、[ アラート] ページに移動します。
    [アラート] に移動
    検索バーを使用してこのページを検索する場合は、小見出しが [Monitoring] の結果を選択します。
  2. [アラート] ページで、[ポリシーを作成] をクリックします。
  3. [ポリシー構成モード] で、[コードエディタ(MQL または PromQL)] を選択します。
  4. PromQL クエリエディタで、次のクエリを入力します。
(  
  sum by (project_id, quota_metric, location) (increase({"serviceruntime.googleapis.com/quota/rate/net_usage", monitored_resource="consumer_quota", service="bigquery.googleapis.com"}[1m]))  
  /  
  max by (project_id, quota_metric, location) ({"serviceruntime.googleapis.com/quota/limit", monitored_resource="consumer_quota", service="bigquery.googleapis.com", limit_name="ExtractBytesPerDay"})  
) > 0.01  

[自動実行] が有効になっていない場合は、[クエリを実行] をクリックします。 5. アラートの残りの部分を構成して、[ポリシーを作成] をクリックします。

PromQL ベースのアラート ポリシーを作成する手順の詳細については、PromQL ベースのアラート ポリシーを作成する(コンソール)をご覧ください。

トラブルシューティング

抽出ジョブの問題を診断し、トラブルシューティングします。

ログ エクスプローラを使用して問題を診断する

抽出ジョブの問題を診断するには、ログ エクスプローラを使用して特定の抽出ジョブのログを確認し、考えられるエラーを特定します。次のログ エクスプローラ フィルタは、抽出ジョブに関する情報を返します。

resource.type="bigquery_resource"
protoPayload.methodName="jobservice.insert"
(protoPayload.serviceData.jobInsertRequest.resource.jobConfiguration.query.query=~"EXPORT" OR
protoPayload.serviceData.jobCompletedEvent.eventName="extract_job_completed" OR
protoPayload.serviceData.jobCompletedEvent.job.jobConfiguration.query.query=~"EXPORT")

抽出がプロジェクトのデフォルトの 1 日あたりの上限(50 TiB)を超えると、BigQuery はこのエラーを返します。抽出ジョブの上限の詳細については、抽出ジョブをご覧ください。

エラー メッセージ

Your usage exceeded quota for ExtractBytesPerDay

50 TiB を超えるテーブルをエクスポートすると、抽出の上限を超えるため、エクスポートは失敗します。特定のテーブル パーティションのテーブルデータをエクスポートする場合は、パーティション デコレータを使用して、エクスポートするパーティションを指定できます。

直近数日間のエクスポート データの使用状況を収集するには、次の方法を試してください。

または、Bytes processed more than などのフィルタとともにジョブ エクスプローラを使用して、指定した期間の処理負荷の高いジョブをフィルタ処理することもできます。

この割り当てエラーを解決する方法の 1 つは、スロット予約を作成し、PIPELINE ジョブタイプを使用して、プロジェクトを予約に割り当てることです。ここでは、無料の共有スロットプールではなく専用の予約を使用するため、上限チェックを回避できます。必要に応じて、後で共有スロットプールを使用する場合は予約を削除できます。

50 TiB を超えるエクスポートを可能にする別の方法については、抽出ジョブの注記セクションをご覧ください。

料金

データ エクスポートの料金については、BigQuery の料金ページをご覧ください。

データのエクスポート後は、Cloud Storage にデータを保存することで料金が発生します。詳しくは、Cloud Storage の料金をご覧ください。

テーブルのセキュリティ

BigQuery でテーブルへのアクセスを制御するには、IAM を使用してリソースへのアクセスを制御するをご覧ください。

次のステップ