QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1452|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

    6 _% m2 |' c! Q0 m* oSparkCore:Spark原理初探(执行流程图)7 f' Z/ x, |3 \. q
    基本概念
    / e1 I# P1 S% T* f
    ( W" g% }, E' L
    " `1 P3 T  r; N' e 2.png
    % h" U5 n) v8 r- s, ~6 ^0 |
    ) z/ U5 |; ~% r8 | 3.png % G, Y' F4 @! H0 `6 Q3 ?/ S

    / r) t& ~9 L( D2 k2 u7 V名词解释
    ! s! B3 F) [1 j. F1 `& k6 LApplication:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。( q0 B2 ]1 f6 W. Y. L4 E) Q2 {
    Driver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等
    6 I. |% b/ q& N) X8 ^Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;
    $ R+ X3 y/ }9 N0 |" K1 X8 dExecutor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;
    8 t( H4 G) o( F5 T0 P- URDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;
    ) M+ X3 P# b  N. S: F1 s$ \& mDAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;% `% p' w2 T( p% Z
    Job:作业,按照DAG执行就是一个作业;Job==DAG
    % [( O3 }- C  z; t: bStage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集
      }3 @2 }& ~3 d$ e  eTask:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作0 X) u# x& y$ g  b9 E
    基本流程
    2 w/ a$ S: D/ O6 C& R( w1 R5 N# [% D
    Spark运行基本流程
    : K7 K* H5 l, J0 K当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
    0 V* z# P9 o, Q+ rSparkContext向资源管理器注册并申请运行Executor资源;* Y. v. P; Q* H- t6 T  p
    资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;0 O- }( }% \5 `& n* r- ~0 o
    SparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。3 |8 \6 t7 K, ]& Q' I, w" `
    TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。
    & ^9 r5 Y+ Y; R! b2 {% }Executor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    7 ^5 f8 v# j  A" _流程图解
    & A; x% _. k8 r( O7 o; @; r& @
    5 @7 X( Y! B9 V$ j2 E9 ` 4.png
    ; I: P8 B9 r. C% e8 {; n4 P  S  l; g* c* @
    5.png
    8 F9 u6 H$ l* ]& q6 a9 e! B8 I& ^# N
    6.png
    ' q" N: u2 y  T! m, S: {
    ; v  T& Z' W. B, K1 P0 x) P8 m! a 7.png
    & t+ w, v( T# `' k2 i& F/ D( v
    ) p# v0 j: K! F; d; J; Q 8.png
    + d& P+ P% L% G6 x
    7 ?! |1 @2 F8 p& L) T2 f6 a( B( p; ^' X
    0 R% Z9 {! |: X( F0 E: [* t
    总结+ l" N4 B8 Y8 @& j/ i% f
    7 V! k  o* _! K: j* s* X4 Z2 m
    Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor/ |% G0 L3 {8 O. {! x6 q3 y
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task% M+ A8 Y# q* V# n- r" v$ {

    0 [( h2 W! Q% Z$ M1 C8 V————————————————
    * }  Z" k7 N! ^+ K2 W版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。+ X$ [, ]) l) N9 w
    原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    * T# l+ T3 N0 @0 `8 r: ~; g% j0 t" P: M1 [  \- M) m/ a, ]! i$ g

    4 s; ]: S. C: A; U8 {
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 18:43 , Processed in 0.497931 second(s), 54 queries .

    回顶部