SQLExecuteQueryOperator 連線到 Apache Hive

使用 SQLExecuteQueryOperatorApache Hive 資料庫中執行 Hive 命令。

注意

此前,使用 HiveOperator 執行此類操作。棄用後,此 Operator 已被移除。請改用 SQLExecuteQueryOperator

注意

請確保已安裝 apache-airflow-providers-apache-hive 包以啟用 Hive 支援。

使用 Operator

使用 conn_id 引數連線到您的 Apache Hive 例項,連線元資料結構如下

Hive Airflow 連線元資料

引數

輸入

Host: string

HiveServer2 主機名或 IP 地址

Schema: string

預設資料庫名稱 (可選)

Login: string

Hive 使用者名稱 (如果適用)

Password: string

Hive 密碼 (如果適用)

Port: int

HiveServer2 埠 (預設: 10000)

Extra: JSON

額外連線配置,例如身份驗證方法:{"auth": "NOSASL"}

SQLExecuteQueryOperator 連線到 Apache Hive 的一個示例用法如下

tests/system/apache/hive/example_hive.py


    create_table_hive_task = SQLExecuteQueryOperator(
        task_id="create_table_hive",
        sql="create table hive_example(a string, b int) partitioned by(c int)",
    )

參考

更多資訊,請查閱

注意

透過 SQLExecuteQueryOperator() 直接提供的引數優先於 Airflow 連線元資料中指定的引數 (如 schema, login, password 等)。

此條目是否有幫助?