Azure DataLake Storage 運算元¶
前置任務¶
要使用這些運算元,您需要做一些準備工作
使用 AZURE PORTAL 或 AZURE CLI 建立必要的資源。
透過 pip 安裝 API 庫。
pip install 'apache-airflow[azure]'詳細資訊請參閱 Airflow® 的安裝
設定連線.
ADLSCreateObjectOperator¶
ADLSCreateObjectOperator 允許您將資料上傳到 Azure DataLake Storage
下面是使用此運算元將資料上傳到 ADL 的示例。
tests/system/microsoft/azure/example_adls_create.py
upload_data = ADLSCreateObjectOperator(
task_id="upload_data",
file_system_name="Fabric",
file_name=REMOTE_FILE_PATH,
data="Hello world",
replace=True,
)
ADLSDeleteOperator¶
使用 ADLSDeleteOperator 從 Azure DataLake Storage 刪除檔案
下面是使用此運算元從 ADL 刪除檔案的示例。
tests/system/microsoft/azure/example_adls_delete.py
remove_file = ADLSDeleteOperator(task_id="delete_task", path=REMOTE_FILE_PATH, recursive=True)
ADLSListOperator¶
使用 ADLSListOperator 列出 Azure DataLake Storage 中的所有檔案
下面是使用此運算元從 ADL 列出檔案的示例。
tests/system/microsoft/azure/example_adls_list.py
adls_files = ADLSListOperator(
task_id="adls_files",
path="folder/output/*.parquet",
azure_data_lake_conn_id="azure_data_lake_default",
)
參考¶
更多資訊,請參閱