QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1354|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    1 {! z3 j7 t! H/ W
    SparkCore:Spark原理初探(执行流程图)- m3 K9 D" g- F4 O/ R
    基本概念
    9 A. g( A) q" @6 M& I' T: t$ m4 f1 Q1 o0 a
    ; W- i, ~" b# j! K' B7 x
    2.png   l8 B$ K& c7 j

    . t* s& j' T2 s5 B 3.png # D! Q3 y( s. `9 N5 H! ]$ [. q: h

    & v3 H9 \, S8 k. A名词解释7 K% c5 [: B7 W5 L' E8 g$ e  m
    Application:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。2 r% [4 v) X1 T0 E, }( |- G2 D
    Driver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等
    & j4 Q  H7 ^5 V1 dCluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;( a$ w8 r% q2 u: [  j" W8 S$ D: s
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;
    ! z: k. d0 [5 YRDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;7 m+ F( p! [: m7 E! b
    DAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;
    + L+ ~* s5 u( a' s* E- AJob:作业,按照DAG执行就是一个作业;Job==DAG  @& z( O$ C' ~4 o7 E, U# L
    Stage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集% \$ n: {8 T* ^
    Task:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作
    ' `  V' j7 I8 f1 T- m+ Y基本流程' q) F$ @) J8 b* Z3 c1 T. W& _" e! x

    % F* Q- E& i$ s/ H  V3 U3 sSpark运行基本流程
    , ]$ u  v" n8 {6 \) @  v" Y当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
    / K6 @3 Z/ r- E/ n% R, e  cSparkContext向资源管理器注册并申请运行Executor资源;
    " D! W% [- }0 c, d; C资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;6 r- k- R1 I" C9 S1 e" f6 n  W; a+ v
    SparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。
    4 m+ e8 f7 ]" z+ T; {$ d/ j4 {TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。
    0 i7 h' Q! B4 _+ n% hExecutor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    8 N/ z; ]  ^) I/ K* W4 T流程图解5 x5 x- u% D  n& K, _! @0 L/ Z
    , w- t9 t) s# G
    4.png 2 Z% M* R2 W! X$ A0 q# t: q# M- H" s
      A+ j( k5 v$ x) n
    5.png
    0 w/ x) K, V. C
    ! T3 y! ^9 t% o$ \ 6.png & _6 N( v, p; W7 Y
    2 [5 L$ |# }0 b. K& P3 Q' v$ U1 _% E
    7.png
    5 d1 X# p2 Z/ j8 i& Q8 ^; }. w! Y+ B9 W# I( v' j! Q: ~0 n1 \$ d' v: R: \$ Z
    8.png 6 P+ G0 ~8 M% t* V! C1 h$ `5 v

    - n" j( N# M# F% U. W- A( |0 i$ x# C  F; T  o# p) g

    # i8 w! H' Y% i0 q4 s3 B总结
    - I' \7 `; j  H& |# N5 N6 ?" ]0 L& P! R8 x6 _
    Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor! ?# n9 `. U' k* }2 a
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task
    $ h( g$ ]0 j- w/ L' W/ D" c4 S" U( o, d  A
    ————————————————
    ; J( ^$ A* u; B9 i% A版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    : `$ ^1 J' d1 w原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    2 j! g7 P9 K, c" l: ?" r- k, \
    - X% |: h+ U1 l8 ~6 a
    0 N4 P; X0 T8 N/ Q8 e- u
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-9-18 08:05 , Processed in 1.697453 second(s), 53 queries .

    回顶部