QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1353|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    - o8 Z9 {5 m' J2 Z2 `7 w- O0 W) X
    SparkCore:Spark原理初探(执行流程图)
    + O" E$ q9 y* m3 }8 f基本概念
    - W- H# h% j$ s" b1 Y- u' H
    6 \; M7 B) i8 Z8 i; Q
    ) v2 {2 a6 H1 Q9 t6 z, e$ f9 ] 2.png
    $ A* |  I  I- y4 i# g/ R
    1 |3 n2 l* D- S( G$ E/ x 3.png ' i8 `( m3 B4 i5 k, g
    4 [( k2 J( C2 v( {- ~# S8 X* F; B
    名词解释; A7 Z( X$ ^- P+ m; d& \- O
    Application:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。2 f4 _* j/ U3 q" z. @
    Driver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等% T# F: e# ^, U+ t
    Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;" m. o* G: ]) I; y
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;7 {2 Q# C" q8 |1 T$ R
    RDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;; P6 b: x9 E$ f/ _* Y
    DAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;7 H' @. A7 b! S$ [5 g+ B* _
    Job:作业,按照DAG执行就是一个作业;Job==DAG1 r1 P& Y# x7 h: v
    Stage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集
    4 a: @$ v$ s, \  \Task:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作2 w, I& n; |! ]
    基本流程) q8 |1 g$ `) L1 A; H

    5 X% D2 d! v) r+ I- mSpark运行基本流程, b4 e- ^: k. _
    当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,3 R2 M2 W; X" c. |5 z: _
    SparkContext向资源管理器注册并申请运行Executor资源;+ B" p' ^$ H+ i! a, |  l9 d
    资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;
    6 o+ C5 F5 v5 L# \4 pSparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。5 }- S  D! L/ a$ i
    TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。% e  I) z, D: T1 N# T
    Executor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    + v. y3 T# }# V$ \& H流程图解4 N% h3 }$ ?. m$ h
    ) x& Y0 K& _7 S# O. L+ v8 j
    4.png 9 z$ P3 Z! F; {. p$ }( r

    9 {2 b. Z, o2 l: J, u 5.png
    # p% ~- p! u- W7 X! L+ J* h
      C+ w/ K2 U: v- q% R7 n 6.png " @& g% u3 K) j% a  Q$ L/ B' K

    4 l" i6 Z; h) Z; v 7.png * p0 R; N7 `, r3 i. i3 g
    3 r1 y) T  o2 H5 a. t1 D9 |
    8.png 7 U% Q2 j' O0 ?: h6 w& o- v+ C4 D+ O

    5 h2 r( V3 t$ {1 T, F, P- X2 Z% G
    4 Y3 B$ x6 x! z' d- l4 W
    + M& v! |4 t! u2 V8 y总结
    # j( H- `3 t( W4 R2 ?! l! ?. \- N& l" Y
    Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor( k( @/ O( P* m" ^; e8 Z& L
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task
    & {% q  V% j1 p, M! r
    7 }) g" C, V# f5 V————————————————: c5 g; B6 E. R
    版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。* {' y7 G$ {7 S7 B- h  O+ P
    原文链接:https://blog.csdn.net/weixin_43563705/article/details/1056992689 z: w- G* ^: {4 e  R' y+ R

    6 x! d* o/ s3 X6 i8 i
    ) l3 t2 s" F$ j3 q2 B" x5 O
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-9-17 18:49 , Processed in 0.604766 second(s), 53 queries .

    回顶部