Utiliser BigLake Metastore avec des tables dans BigQuery

Ce document explique comment utiliser le métastore BigLake avec des tables BigQuery et Spark.

Avec BigLake Metastore, vous pouvez créer et utiliser des tables standards (intégrées), des tables BigLake pour Apache Iceberg dans BigQuery et des tables externes en lecture seule Apache Iceberg à partir de BigQuery.

Avant de commencer

  1. Activez la facturation pour votre projet Google Cloud . Découvrez comment vérifier si la facturation est activée sur un projet.
  2. Activez les API BigQuery et Dataproc.

    Activer les API

  3. (Facultatif) Découvrez le fonctionnement de BigLake Metastore et pourquoi vous devriez l'utiliser.

Rôles requis

Pour obtenir les autorisations nécessaires pour utiliser Spark et Dataproc avec le métastore BigLake en tant que magasin de métadonnées, demandez à votre administrateur de vous accorder les rôles IAM suivants:

Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.

Vous pouvez également obtenir les autorisations requises avec des rôles personnalisés ou d'autres rôles prédéfinis.

Connexion à une table

  1. Créez un ensemble de données dans la console Google Cloud .

    CREATE SCHEMA `PROJECT_ID`.DATASET_NAME;

    Remplacez les éléments suivants :

    • PROJECT_ID: ID du Google Cloud projet à utiliser pour créer l'ensemble de données.
    • DATASET_NAME: nom de votre ensemble de données.
  2. Créez une connexion à une ressource Cloud.

  3. Créez une table BigQuery standard.

    CREATE TABLE `PROJECT_ID`.DATASET_NAME.TABLE_NAME (name STRING,id INT64);

    Remplacez les éléments suivants :

    • TABLE_NAME: nom de votre table.
  4. Insérez des données dans la table BigQuery standard.

    INSERT INTO `PROJECT_ID`.DATASET_NAME.TABLE_NAME VALUES ('test_name1', 123),('test_name2', 456),('test_name3', 789);
  5. Créez une table BigLake pour Apache Iceberg dans BigQuery.

    Par exemple, pour créer une table, exécutez l'instruction CREATE suivante.

    CREATE TABLE `PROJECT_ID`.DATASET_NAME.ICEBERG_TABLE_NAME(
    name STRING,id INT64
    )
    WITH CONNECTION `CONNECTION_NAME`
    OPTIONS (
    file_format = 'PARQUET',
    table_format = 'ICEBERG',
    storage_uri = 'STORAGE_URI');

    Remplacez les éléments suivants :

    • ICEBERG_TABLE_NAME: nom de votre table BigLake pour Apache Iceberg dans BigQuery. Exemple :iceberg_managed_table
    • CONNECTION_NAME: nom de votre connexion. que vous avez créé à l'étape précédente. Exemple :myproject.us.myconnection
    • STORAGE_URI: URI Cloud Storage complet. Exemple :gs://mybucket/table
  6. Insérez des données dans la table BigLake pour Apache Iceberg dans BigQuery.

    INSERT INTO `PROJECT_ID`.DATASET_NAME.ICEBERG_TABLE_NAME VALUES ('test_name1', 123),('test_name2', 456),('test_name3', 789);
  7. Créez une table externe Apache Iceberg en lecture seule.

    Par exemple, pour créer une table Iceberg en lecture seule, exécutez l'instruction CREATE suivante.

    CREATE OR REPLACE EXTERNAL TABLE  `PROJECT_ID`.DATASET_NAME.READONLY_ICEBERG_TABLE_NAME
    WITH CONNECTION `CONNECTION_NAME`
    OPTIONS (
      format = 'ICEBERG',
      uris =
        ['BUCKET_PATH'],
      require_partition_filter = FALSE);

    Remplacez les éléments suivants :

    • READONLY_ICEBERG_TABLE_NAME: nom de votre table en lecture seule.
    • BUCKET_PATH: chemin d'accès au bucket Cloud Storage contenant les données de la table externe, au format ['gs://bucket_name/[folder_name/]file_name'].
  8. Dans PySpark, interrogez la table standard, la table BigLake pour Apache Iceberg dans BigQuery et la table externe en lecture seule Apache Iceberg.

    from pyspark.sql import SparkSession
    
    # Create a spark session
    spark = SparkSession.builder \
    .appName("BigLake Metastore Iceberg") \
    .config("spark.sql.catalog.CATALOG_NAME", "org.apache.iceberg.spark.SparkCatalog") \
    .config("spark.sql.catalog.CATALOG_NAME.catalog-impl", "org.apache.iceberg.gcp.bigquery.BigQueryMetastoreCatalog") \
    .config("spark.sql.catalog.CATALOG_NAME.gcp_project", "PROJECT_ID") \
    .config("spark.sql.catalog.CATALOG_NAME.gcp_location", "LOCATION") \
    .config("spark.sql.catalog.CATALOG_NAME.warehouse", "WAREHOUSE_DIRECTORY") \
    .getOrCreate()
    spark.conf.set("viewsEnabled","true")
    
    # Use the blms_catalog
    spark.sql("USE `CATALOG_NAME`;")
    spark.sql("USE NAMESPACE DATASET_NAME;")
    
    # Configure spark for temp results
    spark.sql("CREATE namespace if not exists MATERIALIZATION_NAMESPACE");
    spark.conf.set("materializationDataset","MATERIALIZATION_NAMESPACE")
    
    # List the tables in the dataset
    df = spark.sql("SHOW TABLES;")
    df.show();
    
    # Query the tables
    sql = """SELECT * FROM DATASET_NAME.TABLE_NAME"""
    df = spark.read.format("bigquery").load(sql)
    df.show()
    
    sql = """SELECT * FROM DATASET_NAME.ICEBERG_TABLE_NAME"""
    df = spark.read.format("bigquery").load(sql)
    df.show()
    
    sql = """SELECT * FROM DATASET_NAME.READONLY_ICEBERG_TABLE_NAME"""
    df = spark.read.format("bigquery").load(sql)
    df.show()

    Remplacez les éléments suivants :

    • WAREHOUSE_DIRECTORY: URI du dossier Cloud Storage associé à votre table BigLake Iceberg dans BigQuery et à votre table Iceberg en lecture seule.
    • CATALOG_NAME: nom du catalogue que vous utilisez.
    • MATERIALIZATION_NAMESPACE: espace de noms pour le stockage des résultats temporaires.
  9. Exécutez le script PySpark à l'aide de Spark sans serveur.

    gcloud dataproc batches submit pyspark SCRIPT_PATH \
      --version=2.2 \
      --project=PROJECT_ID \
      --region=REGION \
      --deps-bucket=YOUR_BUCKET \

    Remplacez les éléments suivants :

    • SCRIPT_PATH: chemin d'accès au script utilisé par la job par lot.
    • PROJECT_ID: ID du Google Cloud projet dans lequel exécuter la job par lot.
    • REGION: région dans laquelle votre charge de travail est exécutée.
    • YOUR_BUCKET: emplacement du bucket Cloud Storage dans lequel importer les dépendances de charge de travail. Le préfixe d'URI gs:// du compartiment n'est pas obligatoire. Vous pouvez spécifier le chemin d'accès ou le nom du bucket, par exemple mybucketname1.

Étape suivante