QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1451|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    ! K+ K' S1 q# _7 h- Q) j2 W% r0 ?; w
    SparkCore:Spark原理初探(执行流程图)" l1 t: C- s* n$ _- }
    基本概念7 H' k  h" m5 Z/ U% e4 y

    ; {) E% X- ]  k  |' G4 m$ B9 q5 L" b! ~0 ^7 x9 ^0 F2 |) l  o
    2.png ) K" w$ D% J6 q+ W
    1 Q) U4 n5 f: \
    3.png
    6 W1 z9 O) m! ~
    # ]. C# ]3 L: h5 V/ V5 N名词解释
    $ P' K/ E2 f9 Y( vApplication:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。6 P- E, |& o7 k  C# Y. H
    Driver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等
    " N8 j1 @! P, S( y* z- wCluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;! W  i1 m/ f  w; w
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;7 W3 b* P. c" E
    RDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;
    + o) d7 r: o2 JDAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;& h- P6 T( h: d1 C* t, p, h/ S
    Job:作业,按照DAG执行就是一个作业;Job==DAG/ P. g- K' V9 d5 l9 n
    Stage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集
    : v9 o( |; h0 O* g2 m1 P' u9 rTask:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作$ `! i( X8 r' _+ S8 {  a+ C
    基本流程1 [7 b2 I9 F/ G5 q+ @( K5 T
    & J0 e* L7 ^& |- W" r7 f
    Spark运行基本流程
    $ c. w  n) y- A9 {* [当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
    5 M5 l+ ]: Y  U+ ]SparkContext向资源管理器注册并申请运行Executor资源;
    $ ]: c: ~+ o: l1 v6 ^* T+ f资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;
    $ T! _9 j/ y: Q6 X% @- C, uSparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。8 {+ ?; T0 G; m; g
    TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。
    / m+ L# p: l7 @; mExecutor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    5 U6 `) e4 s$ V% @6 i/ q流程图解7 d& S6 ^' r0 \: p; x6 n* q
    # g6 l' R! e0 [
    4.png * ^# F% I" V& `/ Z

    1 `6 o9 i7 L5 W7 X- s 5.png
    * o( F1 y" U% ]7 m% M. ?+ }! @5 h
    6.png " j- S. \% R: A

    ) E# V; @8 t3 W8 p# p- T9 q. Q 7.png $ c/ I( R" O1 _/ w5 H3 a
    $ n$ P/ z+ `7 I- H) ]7 I# E+ E
    8.png 8 k' \$ Q' `7 m2 ?- J/ K) E
    " n/ f5 t2 j5 H( X& m6 u! ?' ^% Q

    + z5 v7 F8 f+ z) V% r- c# v/ u- p
    ' ], j$ V- \( C7 b总结
    , d) H* a- l  ?& x# M3 U1 g- e& g3 F& U' Y8 S6 q) ^0 l) M
    Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor: v# j. f, T& ]  `3 Y% |/ y
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task0 _) g! [- H' m
    & S) C; f( z6 \( u  C: m
    ————————————————
    ! m! R: E* w, ?( ]版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。. a5 D+ g- h0 ^, t& b: n( J( c
    原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    7 ?; ^) c9 \( r5 K
    , D' y# U* }: q0 \7 w
    # \, s# r& n; r
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 14:04 , Processed in 0.390902 second(s), 54 queries .

    回顶部