QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1446|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

    ( @" h" J( M2 P& mSparkCore:Spark原理初探(执行流程图)
    2 _& h1 q. }0 F基本概念* O1 x0 x& Z# o+ w
    ) r- y4 x( o/ O; G0 k# H9 L

    * u9 V+ P4 h- s( y5 n 2.png
    $ b! e9 k5 g4 P2 \& i+ }1 S+ ]: c5 }% C" I  G, F% ?
    3.png 2 j& t. n- R: ~+ ?
    * |9 I+ A3 w6 x3 h0 n- O5 j
    名词解释
    - j) l9 _6 k* k# O0 Q: G" B$ x9 IApplication:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。
    ( i4 h8 v5 M, Y6 C% u, I$ gDriver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等* `9 r% I# P6 }* j0 R8 }/ e# g
    Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;' n- |& K5 F% }
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;) U9 |1 C5 E' d# B) o1 v
    RDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;
    2 }0 s7 e9 @6 n9 D! qDAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;
    , Q: P3 r, O7 I, N8 g  DJob:作业,按照DAG执行就是一个作业;Job==DAG* A: N" b% u) g
    Stage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集
    7 \  M# r% N1 F4 O9 y1 H/ J: TTask:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作
    6 o5 Q+ S2 L; D) G' [基本流程
    3 D# z3 f: U% x9 s, D& b/ e0 K6 R3 x  i5 `2 W/ N' F
    Spark运行基本流程3 I& e6 ?8 A3 @& _! z; z. j
    当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
      c& j' w# J, v4 q8 hSparkContext向资源管理器注册并申请运行Executor资源;4 U7 u0 ~! s$ ^# h& ]' `3 G
    资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;& |5 g$ e; X2 z  i
    SparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。8 F/ x( V/ P+ s, }% K
    TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。/ p; x% I, ~. ^
    Executor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    # y/ G$ E; ^: _' i* `流程图解1 {: e& l) M$ C

    2 o- U- r+ k! R( _ 4.png 4 Q4 Y: o* O& s" F2 c
    7 `9 D6 @# y) Z
    5.png 5 L. N7 _, d$ `. e! h; Z+ x

    0 U% j9 F( n% Y* _+ \  j; F' D( Z% U 6.png % G; o- x% z4 U" O/ u

    $ x; o" v5 n0 ^* s 7.png # i; O+ r7 M. V  d  z- a5 X' `

      A$ r' Z" U  N" l8 m' }: @3 I 8.png
    8 p9 v( u' q) x  L
    . n5 o- s! d+ o4 E- E: z' C$ t# l- R2 U1 f, A
    % Y% M: J: @- s& y5 W
    总结$ X% o0 x" ?5 N. N. K( A/ a+ L! `% p) ]8 v
    ; L& n# u2 Y' d% Q! }; v
    Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor
    $ K& |) E* x3 W! FRDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task5 [3 P: h- K' c
    , @& K" l, @! X1 K
    ————————————————* B, d% l9 h$ }) F- P2 Q8 T
    版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。- q- w2 P2 ~# @3 A: ^
    原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    : W6 A9 |5 U* ^+ |4 }5 g) \: Y8 T# h
    # C' V% |) ~, g4 }/ l" j
    " l$ E5 N! y$ @) W# H
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-20 11:22 , Processed in 0.357422 second(s), 53 queries .

    回顶部