DatabricksRunNowOperator¶
使用 DatabricksRunNowOperator 透過 api/2.1/jobs/run-now API 端點觸發現有 Databricks 作業的執行。
使用運算子¶
有兩種方式例項化此運算子。第一種方式是,您可以獲取通常用於呼叫 api/2.1/jobs/run-now 端點的 JSON 負載,並透過 json 引數將其直接傳遞給我們的 DatabricksRunNowOperator。
另一種實現相同功能的方式是直接使用 DatabricksRunNowOperator 的命名引數。請注意,jobs/run-now 端點中的每個頂層引數都恰好對應一個命名引數。
唯一必需的引數是
job_id- 指定現有 Databricks 作業的 IDjob_name- 現有 Databricks 作業的名稱。如果找不到作業,或者有多個同名作業,則會丟擲異常。
所有其他引數都是可選的,並在 DatabricksRunNowOperator 的文件中描述。例如,您可以根據作業中任務的型別,使用以下引數之一將附加引數傳遞給作業
notebook_paramspython_paramspython_named_paramsjar_paramsspark_submit_paramsidempotency_tokenrepair_runcancel_previous_runs
DatabricksRunNowDeferrableOperator¶
`DatabricksRunNowOperator` 運算子的可推遲版本。
它允許使用 Airflow 2.2.0 中引入的新功能更有效地利用 Airflow worker。