QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1445|回复: 0
打印 上一主题 下一主题

SparkCore:Spark原理初探(执行流程图)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-24 18:08 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

    . p8 z+ u8 N: f; ISparkCore:Spark原理初探(执行流程图). _$ J3 i( F, D  [4 L8 l
    基本概念
    4 J$ r  O& h) G( ]# F8 l7 @! F' I0 G3 [' u' s& h# _

    , p5 z; [- l+ B; p 2.png * E* z& W" }4 B; _% g! n
    ! ~% _5 U$ v6 R# V( ]
    3.png ( B2 t5 G4 i" `2 x% F7 x5 a
    $ ]4 T. j  l& t; A
    名词解释
    5 L/ o# S5 Q; t/ N# j( |Application:指的是用户编写的Spark应用程序/代码,包含了Driver功能代码和分布在集群中多个节点上运行的Executor代码。" w+ x, ^# h! d- z4 a$ O
    Driver:Spark中的Driver即运行上述Application的Main()函数并且创建SparkContext,SparkContext负责和ClusterManager通信,进行资源的申请、任务的分配和监控等& f* t. j6 u, k3 X6 m' m% Y6 C+ ~
    Cluster Manager:指的是在集群上获取资源的外部服务,Standalone模式下由Master负责,Yarn模式下ResourceManager负责;
    8 I# U$ W. y( w7 Z2 c$ [Executor:是运行在工作节点Worker上的进程,负责运行任务,并为应用程序存储数据,是执行分区计算任务的进程;
    / V, f" J, ~1 @6 t: gRDD:Resilient Distributed Dataset弹性分布式数据集,是分布式内存的一个抽象概念;! e& b; u: V; w) k+ c, m
    DAG:Directed Acyclic Graph有向无环图,反映RDD之间的依赖关系和执行流程;
      F$ W8 b+ {( N$ d" b) U! y7 HJob:作业,按照DAG执行就是一个作业;Job==DAG
    ; ?1 x. g/ j) U$ T3 zStage:阶段,是作业的基本调度单位,同一个Stage中的Task可以并行执行,多个Task组成TaskSet任务集
    ( B6 C4 y$ @  V  n# `Task:任务,运行在Executor上的工作单元,一个Task计算一个分区,包括pipline上的一系列操作
    : z2 F- H5 ?9 x; R# p基本流程
    ! p7 u+ U0 X! ?: Y6 R6 ^9 e# s0 a, [5 S7 F3 h4 d6 S
    Spark运行基本流程/ K7 U% v5 v7 q) b
    当一个Spark应用被提交时,首先需要为这个Spark Application构建基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,7 r. H2 O: b( A  b, }7 `8 }
    SparkContext向资源管理器注册并申请运行Executor资源;
    7 K  f8 O, i6 i+ d资源管理器为Executor分配资源并启动Executor进程,Executor运行情况将随着心跳发送到资源管理器上;
    % c3 @/ ^2 T; v7 i: N  U3 ?% u2 m. FSparkContext根据RDD的依赖关系构建成DAG图,并提交给DAGScheduler进行解析划分成Stage,并把该Stage中的Task组成Taskset发送给TaskScheduler。
    2 K5 U+ h& ~, m6 e& ]TaskScheduler将Task发放给Executor运行,同时SparkContext将应用程序代码发放给Executor。
    ; Z% F' N/ k; h7 e4 m# a5 FExecutor将Task丢入到线程池中执行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。& h$ ~  W& G$ L7 {2 S
    流程图解
    " Z  C0 v% |; x7 P# X
    & C  ~% I- f! W) o( M 4.png
    + Z/ i+ p; N  g1 ^+ m
    ( ^% I* T4 _' r9 O( _! v3 f, y, x 5.png % I# ^/ }' C( \2 D3 u5 S

    # |" ^- E. e; o 6.png
    0 V6 d: J  o9 `2 B0 V) v# `) x$ n
    7.png
    # H# ?& V4 [8 a# [- m! @
    0 s# r9 H9 P  U 8.png $ |! J5 E. J) N2 J& w

    * W$ v! k4 Y% L' L' r7 ^4 M
    9 e6 W% y6 ?: e* c2 L+ I
    5 p* i  M0 N/ Z0 |总结
    9 B+ q' _6 K) a+ x& l* E* \# k- T! a& H' |: B. J  w4 U
    Spark应用被提交–>SparkContext向资源管理器注册并申请资源–>启动Executor
    + J1 f$ D  R+ C0 `RDD–>构建DAG–>DAGScheduler划分Stage形成TaskSet–>TaskScheduler提交Task–>Worker上的Executor执行Task! G7 i0 U8 R6 W1 Z# q/ B7 T0 f

    7 q- l# L, L' f1 U" r& [% f————————————————
    5 H! m: v: t4 V9 K1 Y版权声明:本文为CSDN博主「真情流露哦呦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。, O& s/ Z# r6 A* {: `
    原文链接:https://blog.csdn.net/weixin_43563705/article/details/105699268
    . R1 E4 j& N1 @6 Y
    7 |# A' B* r- m, @4 n' o" e2 U9 S  T3 G- q1 C
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-20 09:30 , Processed in 0.281689 second(s), 53 queries .

    回顶部