QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1448|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |正序浏览
    |招呼Ta 关注Ta

    ' I' I' k% ~$ \4 L( I, dSparkCore:Spark原理初探(执行流程图)
    0 V5 C0 H  z, j$ C" w9 y+ t: ~* L基本概念
    3 [0 X+ N& H3 H4 d0 S. g- K8 s- c& m* |6 q" _. W
    / ]/ p0 l8 _, H5 e0 Y/ {
    2.png 3 k& m' H9 U1 B3 R
    ' i5 a* A# o- A5 F$ b" R
    3.png
    : p) z' ^* l( h) B! r) ?$ A) {/ |) Z/ t1 r/ g. t) v" L
    名词解释
    . v7 q' {" j( |! N& E. Q5 F# `Application:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。
    # D7 k( O  @  l: ?- K( NDriver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等
    : M. t% D8 h& w# [1 @" C9 j$ ]Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;- x) }0 D+ T& K" k
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;
    1 O5 m2 n5 ]% ^, ]RDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;
    . k1 A$ n4 @# f* W! q4 t/ ?  GDAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;
    # ?. U- W1 a$ j( p  JJob:作业,按照DAG执行就是一个作业;Job==DAG
    + h  \# ]9 f, B4 Q3 ]; r  Q( z/ bStage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集) A& p. M/ V' b* |. r
    Task:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作: M- v& M/ h0 w9 b3 p6 Q! g
    基本流程
    5 r# V; U3 `% H( ^# U' @  ]8 `, n  l3 Z
    Spark运行基本流程8 Y' y3 }3 y: l0 b8 [' O& r  o7 @
    当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
    6 e9 Q6 [0 a. @, ASparkContext向资源管理器注册并申请运行Executor资源;. l! s; h7 j: T! i8 x
    资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;
    ! e+ u& p7 ]$ _  u- L" w% t- k3 _( RSparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。7 E8 }, H5 O5 C7 S# e
    TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。8 S4 X/ u) Z& }8 b& h
    Executor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    ) p  ^; k2 y% w  l6 |流程图解
    4 \, e1 `1 K' X  h/ y' `
    0 @1 e$ L' K3 h5 V 4.png
    + l" e" @# ~; Y4 l* C4 l, V) c; M! c/ O" d' U
    5.png 0 i7 \) D; N+ j
    / s; j3 |4 y5 a) V7 \; E5 m) e
    6.png
    - d' v( t/ ]8 u1 K4 e
    1 V  z7 N7 F" M+ x 7.png 8 B1 H' D2 W( N, }8 M6 q* |7 t
    & c; O" W- g0 A, i
    8.png 1 `9 D0 K$ A* ^

    9 B* B: @; c$ X! z/ x9 c) j, [6 _3 p6 Y: ?

    . n+ G' ~3 c  @/ a- K总结% Y/ @& Z  U: e% R: f4 M0 k% J

    : j- m2 B3 G& o6 U' o* HSpark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor' d- j" z' m; X9 P. p
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task) B4 ]( T+ ]% ?; }5 I- v& V
    3 k: d* M  B" f/ L" _. u
    ————————————————: P: k( \: i/ U9 X
    版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    , c3 T2 @+ P7 S. Q  G原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    $ [& n/ D; o  D# N% i$ y: Y. b( E0 D
    $ s* J# E3 c& i% O7 a4 T
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-20 23:40 , Processed in 0.450827 second(s), 54 queries .

    回顶部