发表评论取消回复
相关阅读
相关 hadoop组件---spark实战-----airflow----调度工具airflow定时运行任务的理解
我们在前面已经初步了解了 airflow: [hadoop组件—spark实战-----airflow----调度工具airflow的介绍和使用示例][hadoop_spar
相关 hadoop组件---spark实战-----airflow----调度工具airflow部署到k8s中使用
在之前的文章中 我们已经了解了airflow 和 它的工作原理。 [hadoop组件—spark实战-----airflow----调度工具airflow的介绍和使用示例][
相关 hadoop组件---spark实战-----airflow----调度工具airflow的介绍和使用示例
Airflow是什么 Airflow是一个可编程,调度和监控的工作流平台,基于有向无环图(DAG),airflow可以定义一组有依赖的任务,按照依赖依次执行。airflo
相关 hadoop组件---spark实战----spark on k8s模式k8s原生方式spark2.4.4在python程序中通过conf创建sparkSession
我们在之前的文章中已经尝试了使用spark on k8s。 [hadoop组件—spark实战----spark on k8s模式k8s原生方式安装spark2.4.4 cl
相关 hadoop组件---spark实战----spark on k8s模式k8s原生方式---cluster mode调用运行spark程序
我们在上篇文章中已经记录了 如果 安装spark on k8s模式k8s原生方式—cluster mode。 [hadoop组件—spark实战----spark on k8
相关 任务调度管理工具:Airflow
安装 airflow是由python编写的,安装也比较简单,可以直接通过pip命令安装: `pip install airflow` pip install
相关 AirFlow简介
1.简介 Airflow是一个可编程,调度和监控的工作流平台,基于有向无环图(DAG),airflow可以定义一组有依赖的任务,按照依赖依次执行。airflow提供了丰富的
相关 airflow调度方案
主要服务 1. `dag`:包括 task、operator、sensor 模块 配置 dag、task、operator 2. `schedule`:包括 cont
相关 使用AirFlow调度MaxCompute
简介: airflow是Airbnb开源的一个用python编写的调度工具,基于有向无环图(DAG),airflow可以定义一组有依赖的任务,按照依赖依次执行,通过python
相关 airflow部署
本地部署 `创建目录并添加环境变量` mkdir /opt/airflow echo "export AIRFLOW_HOME=/opt/airflow
还没有评论,来说两句吧...