QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1453|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    " V5 n$ I! ?0 X2 @
    SparkCore:Spark原理初探(执行流程图)
    9 \7 \' s4 ^8 N4 ]. m) {9 O/ g基本概念
    : s2 i! F1 W$ j' {' a" {
    3 P2 e" d% n  E3 D' e& h  K
    / Q6 j1 ?, a1 k$ E4 d- h9 c6 h' X 2.png
    6 s7 N, h# y7 O1 N4 K7 V, l) n$ ~& n9 T
    3.png & N  q* Y" [! }0 U+ G; J

    3 u0 k3 n( O; c% e# y# P' J2 y* S名词解释3 F- ~; ?; P! `& N' v$ _
    Application:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。
    7 {3 Q( p* B, N& `" aDriver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等! F' H; t9 i! t/ l- e  q! c+ _
    Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;$ Y! K5 n2 j# r
    Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;
    % l8 {  N0 @6 y( l, S, ?% F  yRDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;
      u5 Z3 X$ X6 B* z4 [! {9 cDAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;) w$ K' [! f, n+ ?3 i  y
    Job:作业,按照DAG执行就是一个作业;Job==DAG+ Y. U# q  x; K6 q
    Stage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集% j: U$ ?5 h7 j; t
    Task:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作3 e3 m5 e5 W/ o: w# O
    基本流程
    3 t' f! e% I9 h1 x% U, R8 e% ]5 q+ G& s0 [2 x
    Spark运行基本流程. w# Z8 c* K8 V, C% T( Y
    当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,! a6 T0 b2 z7 j- ~9 k9 g" f
    SparkContext向资源管理器注册并申请运行Executor资源;7 y% ]; ?, A  W/ y6 H6 w- f
    资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;
    % C  |/ ^7 `3 n4 I: GSparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。, A( o; Y# s; M* P* y2 r
    TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。# U( q# e, E, h( O* d
    Executor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。
    ' ~4 M: O) E  X( E+ h: A流程图解. o0 ^" o8 z- e5 l! S# V- X% s

    " C, J0 S; M0 v; A1 Q0 U4 q5 K 4.png
    6 Y: Q5 r1 \% E, i' e) G
    . e# G+ O# f1 n1 o 5.png
    4 |, K( g1 }# }  s6 R& y8 n7 s# r8 \7 W/ H; J: I
    6.png
    7 d4 t  `: q. P7 u5 z* }
    8 W5 W2 c7 s; Z$ l) ]0 { 7.png
    4 B( k$ A' M  K& Z# W/ }7 i: b
    8.png , l. s1 C% D0 S4 P; V
    1 Z* w; p  L! ?6 U
    ) [( q( l/ S: d# o. K" n( a

    ) |6 q1 N( _! x总结
    ' j1 F" v" P5 a/ g
    $ Z( o8 w) G/ R- Z( R: }. u- I5 P! X2 lSpark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor  D1 S2 `; h+ {- K' s
    RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task
    & F4 l, K$ {' G" o, F0 T" F; c
    * Z8 I6 t* Q. @" ?: F————————————————: g3 p  y$ e: \+ [, m
    版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    7 j- [$ p: n; y" O: c原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    / R0 l9 y8 k. t$ v0 [5 S6 k* f; j7 ^2 P3 q' B. ^5 w2 |; m' _/ ~- N: V

    * [$ P/ S, K6 ^2 F
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-22 02:33 , Processed in 1.117171 second(s), 54 queries .

    回顶部