QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1449|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    6 |/ e2 R' p; v! \# ^* h: o0 z
    SparkCore:Spark原理初探(执行流程图)
    2 T, I6 a% T/ |" e0 p5 P+ S' u! B基本概念
    : j! q$ L1 o. S6 S: T/ u
    & M/ x) ^4 S6 Q' Y8 q. x8 D% i: s2 W" @5 o2 [
    2.png   M0 D4 Q& r; v" r" A5 y2 Q; h
    : K' ]6 O$ [5 D# ~
    3.png 6 O9 ^. g6 O; [
    3 Z9 j0 g8 `9 J' g
    名词解释0 O. D- q& _2 e
    Application:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。/ _9 y4 b- N. S2 w/ F  k
    Driver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等: f; w; L) D2 L6 Z( a5 S) T
    Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;
    5 ]7 f# b" n+ a9 ~2 r& Q4 |. oExecutor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;
    3 z+ o, K" T! |4 V5 gRDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;
    . J  u( ~/ C( }7 C# ^DAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;/ D+ s7 r$ S; G& p3 y
    Job:作业,按照DAG执行就是一个作业;Job==DAG
    % H) `& O( J% XStage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集$ L/ k' Z9 C6 C9 F! i: c2 g
    Task:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作
    / T" C, ~/ M, y* w# Y" t0 [基本流程
    1 Z' H- ]" I( r4 f' Q; z  [4 \" K- I+ J3 \
    Spark运行基本流程
    % m9 ?3 g' M; S3 `$ |" }& X当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
    ) g% V: ?. d- ^$ e7 wSparkContext向资源管理器注册并申请运行Executor资源;
      C! ^4 `* j$ q3 Z5 ~- \资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;' `- B7 |1 V! ~4 M
    SparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。
    : X) n: }* N% Q4 i* pTaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。
    + p/ [+ |3 C8 x. c3 s; wExecutor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。" F3 E# E& g/ Y
    流程图解
    , F5 l, H5 n0 z3 c- }- R) t0 _5 d  N: z+ ^) V
    4.png
    % t5 H% _( M6 y) l# H2 f6 k! m: _' a$ t
    5.png - a: L) L1 \+ C. b

    ! U9 P- c1 v( o9 t8 ]" W: O6 a 6.png   `0 x$ h  K& k, `

    & s, G# P0 {, `( w 7.png ; X7 U8 b+ H) c' [7 R6 v
    2 u" l& h0 L7 |% O5 |
    8.png
    : U# i5 @" \1 `( d3 e/ Q7 \+ r! O4 b8 B- c) _

    $ }$ ~" b8 D- `' ]% L9 b5 `2 {+ Y$ ^* O3 v3 `
    总结2 G4 X! X6 x: _* F) [, l: S

    1 B7 j& p! d! T# ?Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor4 v" w) M7 \! |1 k; ~; Q  J8 P2 k' g
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task
    0 |6 r4 i6 L0 C8 l: W; T6 L. R. _& {8 D/ H$ I/ w7 W
    ————————————————
    . n" J( j1 k' `4 r, u版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。% y# o2 K% I; ^
    原文链接:https://blog.csdn.net/weixin_43563705/article/details/1056992682 T8 C; i  e( J/ @8 ?" N, o# T" B
    2 q; C1 d; F' u+ W5 g' t: a2 Q/ _
    3 O/ X/ h( u- U' n- l1 i9 J
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 01:15 , Processed in 0.437733 second(s), 54 queries .

    回顶部