SQLExecuteQueryOperator 連線到 Apache Hive¶
使用 SQLExecuteQueryOperator 在 Apache Hive 資料庫中執行 Hive 命令。
注意
此前,使用 HiveOperator 執行此類操作。棄用後,此 Operator 已被移除。請改用 SQLExecuteQueryOperator。
注意
請確保已安裝 apache-airflow-providers-apache-hive 包以啟用 Hive 支援。
使用 Operator¶
使用 conn_id 引數連線到您的 Apache Hive 例項,連線元資料結構如下
引數 |
輸入 |
|---|---|
Host: string |
HiveServer2 主機名或 IP 地址 |
Schema: string |
預設資料庫名稱 (可選) |
Login: string |
Hive 使用者名稱 (如果適用) |
Password: string |
Hive 密碼 (如果適用) |
Port: int |
HiveServer2 埠 (預設: 10000) |
Extra: JSON |
額外連線配置,例如身份驗證方法: |
SQLExecuteQueryOperator 連線到 Apache Hive 的一個示例用法如下
tests/system/apache/hive/example_hive.py
create_table_hive_task = SQLExecuteQueryOperator(
task_id="create_table_hive",
sql="create table hive_example(a string, b int) partitioned by(c int)",
)
參考¶
更多資訊,請查閱
注意
透過 SQLExecuteQueryOperator() 直接提供的引數優先於 Airflow 連線元資料中指定的引數 (如 schema, login, password 等)。