QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1334|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

    8 ~  F4 j. t& q% n2 HSparkCore:Spark原理初探(执行流程图)8 S( ]3 j7 n' `, c
    基本概念
    1 |: _6 ?9 t* g- E- D) d$ o
    " {9 }3 S6 A! d* n9 x8 c
    2 `( _5 G1 G1 _* y 2.png
    : p; E7 N1 d: J! g' ?. u; }. t2 G+ [* V
    3.png ! d  O: g* P) @9 y7 y) u& G
    % H8 T) q: h4 w5 t
    名词解释
    , W6 s/ e: E) N8 XApplication:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。
    ' E* T( e7 \" h0 nDriver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等+ h; q5 ?' ~# i. S! N( X1 ?# k
    Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;. ]1 M2 V# F2 H6 k
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;+ q. Z8 y1 u! z. i) t
    RDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;$ g7 t  B# M6 N/ r  a( k& ~, l4 A
    DAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;3 P- d; C' R# E1 U3 \! `/ y6 E
    Job:作业,按照DAG执行就是一个作业;Job==DAG& J! l1 p. @1 j$ b' z8 F" C( J
    Stage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集
    " D/ ], Q6 Z: k/ M1 V5 z- e, yTask:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作! w' v7 j& z; {/ t6 w: f
    基本流程
    9 d: h( [+ F- ?3 a+ |
    " z# L3 G( ?# ^) M" m/ g7 }- R8 HSpark运行基本流程$ B3 t7 t9 G. j9 f  ?- j5 r) s* z. K
    当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,
    " n: r! b% G# I4 J  `SparkContext向资源管理器注册并申请运行Executor资源;
    % o& W, \- o' b% e* O资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;
    * v# G0 u2 {- f- xSparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。# l  |% Y, N1 ?# ~
    TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。; h1 u3 Q& N# I8 F9 V1 G$ D
    Executor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。' g1 Z$ X/ b2 P/ {9 F5 m
    流程图解
    , A7 F6 E  H& z0 K% G3 j
    6 |" n- @1 V0 `% g; S' B 4.png / n$ R: a% p5 J, e$ |" M
    9 r! G2 A4 V$ o
    5.png
    . C8 E1 C- h  Q5 q' I% A: T: C+ E$ f$ E
    6.png
    " [9 P5 y- b; s9 m# n) B( d) M$ b" {' }9 V
    7.png / N1 O. X! K' d! `6 [( V
    0 [$ Q, _5 e/ m5 S
    8.png
    ( v+ p& S9 t% Q$ u, _* s* _: H# U- Q% {8 ^
    $ t! I& d) [% o
      \8 B. J# n. [) d) H: p" ~* r1 `
    总结
    2 [' [$ s7 N9 S" x( ?4 k2 M7 {  F4 ?2 T1 C* E4 K+ k
    Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor
    1 z: v% q4 X6 S7 bRDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task
    0 O/ N9 I' l4 p% \0 Q
    3 y/ m0 P, _: F, ]; P3 B$ I————————————————& b; S0 z# O" P' z* l/ q7 w; @
    版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    & V+ H9 d* [. W4 R原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    # l& B* [( B# Y; \  c) [0 b& |' ~! a9 }; [" D; M& ?

    ! k6 o; a! m" Z0 H( X
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-22 00:25 , Processed in 0.365626 second(s), 53 queries .

    回顶部