QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1329|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

    / C$ U; ?% }" x4 zSparkCore:Spark原理初探(执行流程图)/ q+ H! |+ U4 t) U1 z6 L- H- V  R
    基本概念6 u( B, a) B  r/ d& J

    ( k! d3 ^5 k- g$ E- \: }4 _
    * P/ q) V; Z  Z) m 2.png
    * s4 x8 d* Y- D* l& i; f* V5 o3 z# H& z  r! D/ g  \6 w% i4 K3 X& X
    3.png 3 n. B; C8 j! G7 g

    3 ^0 @! \6 b  n* S3 R" T名词解释0 a, y5 a# e9 a# _" K
    Application:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。
    7 a# m  R# z- B. A. pDriver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等
    9 u- S3 Q" i$ C5 b! uCluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;' i2 W: U1 @- q: _+ r
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;! x" h+ P( p- n6 f+ E) _
    RDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;& e5 X1 v8 [, \" p& Q* `
    DAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;
    # F9 |, d- z' {, U, p8 QJob:作业,按照DAG执行就是一个作业;Job==DAG6 p5 h5 y9 o' V+ E5 Q& l
    Stage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集
    6 L8 p( L; Y4 `& U. m% `2 W$ C# dTask:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作' `* c9 q" ^# R- ^2 P
    基本流程
    : k: d  v; N+ a8 e6 e8 o$ q2 w- E% q' B/ s% a& I2 t
    Spark运行基本流程/ v: w0 Z* t! I: t0 {1 t5 L2 t8 _
    当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
    8 R6 `2 I1 i/ u+ u' [" O( P# oSparkContext向资源管理器注册并申请运行Executor资源;( }) Y% i, C; C8 y8 d9 n
    资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;
    - l0 U# K9 U# w( A8 sSparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。
    ) s! Y3 e4 c2 V. ^7 w% i' x1 v; m9 MTaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。$ e9 G: ]' N1 B& {- G* P
    Executor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    , H  @* W* k4 R3 R; l/ ]流程图解
    ; U& i0 O6 c" V0 o; {$ ^+ H3 l+ G& ?, \' e1 G( C
    4.png
    : x/ i$ q3 `8 O4 [$ ~; ]2 s
      `+ {, i& l9 X; y9 Z4 S# L1 c' ~* d 5.png / I) T2 ^5 l' O2 r
    0 K5 R9 s0 ?0 |9 g4 s2 R
    6.png " {/ Z( q: q- q9 ]

    % Q8 ]6 X1 W7 y 7.png
    " o# n% C* a$ t, \) a6 [
    $ X& S8 r8 W3 @+ W# R2 y 8.png
    " z0 u% N) j) N
    * M6 R, V0 n1 L& T, ?$ x% w" ]
    ) i1 |! ~2 I# @% q" F2 U' l. X* q4 A6 P7 R
    总结
    ; G0 @2 H7 m, k% S$ t/ f
    & O& R* G6 c: Z: ]+ }Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor" w* w, c8 m: @  ^# e
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task
    & F# R- G) f: Z9 I3 q) j  B% X) c* p" Z  c! T/ Y3 S
    ————————————————
    0 B4 a4 V7 i. A, T  L' E6 J' `" B版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。( R7 E# ]/ R, C0 R$ L
    原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    ! e" L. P, I, _# h
    8 a) e* y- d# c; Z; |( p
    ' }% ?8 u' E- L8 R5 I
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-19 21:54 , Processed in 0.272614 second(s), 53 queries .

    回顶部