找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索

[ 行业资讯 ] 【解读】Hadoop 集群实践:腾讯分布式数据仓库

2014-02-23 08:58| 发布者: watchmen | 查看: 1129 | 收藏

摘要: 守望者:TDW(Tencent distributed Data Warehouse,腾讯分布式数据仓库)基于开源软件 Hadoop 和 Hive 进行构建,打破了传统数据仓库不能线性扩展、可控性差的局限,并且根据腾讯数据量大、计算复杂等特定情况进行 ...

TDW(Tencent distributed Data Warehouse,腾讯分布式数据仓库)基于开源软件 Hadoop 和 Hive 进行构建,打破了传统数据仓库不能线性扩展、可控性差的局限,并且根据腾讯数据量大、计算复杂等特定情况进行了大量优化和改造。

TDW 服务覆盖了腾讯绝大部分业务产品,单集群规模达到4400台,CPU总核数达到10万左右,存储容量达到100PB;每日作业数100多万, 每日计算量4PB,作业并发数2000左右;实际存储数据量80PB,文件数和块数达到6亿多;存储利用率83%左右,CPU利用率85%左右。经过四年 多的持续投入和建设,TDW已经成为腾讯最大的离线数据处理平台。

TDW的功能模块主要包括:Hive、MapReduce、 HDFS、TDBank、Lhotse等,如图1所示。TDW Core主要包括存储引擎HDFS、计算引擎MapReduce、查询引擎Hive,分别提供底层的存储、计算、查询服务,并且根据公司业务产品的应用情 况进行了很多深度订制。TDBank负责数据采集,旨在统一数据接入入口,提供多样的数据接入方式。Lhotse任务调度系统是整个数据仓库的总管,提供 一站式任务调度与管理。

随着业务的快速增长,TDW的节点数也在增加,对单个大规模 Hadoop 集群的需求也越来越强烈。TDW需要做单个大规模集群,主要是从数据共享、计算资源共享、减轻运营负担和成本等三个方面考虑。

1. 数据共享。TDW之前在多个IDC部署数十个集群,主要是根据业务分别部署,这样当一个业务需要其他业务的数据,或者需要公共数据时,就需要跨集群或者跨 IDC访问数据,这样会占用IDC之间的网络带宽。为了减少跨IDC的数据传输,有时会将公共数据冗余分布到多个IDC的集群,这样又会带来存储空间浪 费。

2. 计算资源共享。当一个集群的计算资源由于某些原因变得紧张时,例如需要数据补录时,这个集群的计算资源就捉襟见肘,而同时,另一个集群的计算资源可能空闲,但这两者之间没有做到互通有无。

3. 减轻运营负担和成本。十几个集群同时需要稳定运营,而且当一个集群的问题解决时,也需要解决其他集群已经出现的或者潜在的问题。一个 Hadoop版本 要在 十几个集群逐一变更,监控系统也要在十几个集群上部署。这些都给运营带来了很大负担。此外,分散的多个小集群,资源利用率不高,机器成本较大。

建设单个大规模集群的方案及优化

面临的挑战

TDW 从单集群400台规模建设成单集群4000台规模,面临的最大挑战是Hadoop架构的单点问题:计算引擎单点JobTracker负载重, 使得调度效率低、集群扩展性不好;存储引擎单点NameNode没有容灾,使得重启耗时长、不支持灰度变更、具有丢失数据的风险。TDW单点瓶颈导致平台 的高可用性、高效性、高扩展性三方面都有所欠缺,将无法支撑4000台规模。为了解决单点瓶颈,TDW主要进行了JobTracker分散化和 NameNode高可用两方面的实施。

JobTracker分散化

1.单点JobTracker的瓶颈

TDW 以前的计算引擎是传统的两层架构,单点JobTracker负责整个集群的资源管理、任务调度和任务管理,TaskTracker负责任务执 行。JobTracker的三个功能模块耦合在一起,而且全部由一个Master节点负责执行,当集群并发任务数较少时,这种架构可以正常运行,但当集群 并发任务数达到2000、节点数达到4000时,任务调度就会出现瓶颈,节点心跳处理迟缓,集群扩展也会遇到瓶颈。

2.JobTracker分散化方案

TDW 借鉴YARN和Facebook版corona设计方案,进行了计算引擎的三层架构优化(如图2所示):将资源管理、任务调度和任务管理三个 功能模块解耦;JobTracker只负责任务管理功能,而且一个JobTracker只管理一个Job;将比较轻量的资源管理功能模块剥离出来交给新的 称为ClusterManager的Master负责执行;任务调度也剥离出来,交给具有资源信息的ClusterManager负责执行;对性能要求较 高的任务调度模块采用更加精细的调度方式。

新架构下三个角色分别是:ClusterManager负责整个集群的资源管理和任务调度,JobTracker负责单个Job的管理,TaskTracker负责任务的执行。

(1) 两路心跳。之前的架构下,TaskTracker向JobTracker上报心跳,JobTracker串行地处理这些心跳,心跳处理中进行 节点管理、任务管理、任务调度等,心跳繁重,影响任务调度和集群扩展性。新架构下,心跳被拆分成两路心跳,分别上报任务和资源信息。

JobTracker 获知任务信息通过任务上报心跳的方式。任务上报心跳是通过任务所在的TaskTracker启动一个新的独立线程向对应的 JobTracker上报心跳这条途径,在同一个TaskTracker上,不同Job的任务使用不同的线程向不同的JobTracker上报心跳,途径 分散,提升了心跳上报效率。

TaskTracker通过上报心跳的方式将资源信息汇报给ClusterManager。 ClusterManager从TaskTracker 的心跳中获取节点的资源信息:CPU数量、内存空间大小、磁盘空间大小等的总值和剩余值,根据这些信息判断节点是否还能执行更多的任务。同 时,ClusterManager通过TaskTracker与其之间维系的心跳来管理节点的生死存亡。

以前繁重的一路心跳被拆分成了两路轻量的心跳,心跳间隔由40s优化成1s,集群的可扩展性得到了提升。

(2)资源概念。之前架构只有slot概念,一般根据核数来设置slot数量,对内存、磁盘空间等没有控制。新架构弱化了slot概念,加强了资源的概念。

每 个资源请求包括具体的物理资源需求描述,包括内存、磁盘和CPU等。向ClusterManager进行资源申请的有三种来源类型:Map、 Reduce、JobTracker,每种来源需要的具体资源量不同。在CPU资源上,调度器仍然保留slot概念,并且针对三种来源保证各自固定的资源 帽。

例如,对于24核的节点,配置13个核给Map用、6个核给Reduce用、1个核给JobTracker用,则认为该节点上有1个 JobTracker slot、13个Map slot、6个Reduce slot。某个Map请求的资源需要2个核,则认为需要两个Map slot,当一个节点的Map slot用完之后,即使有剩余的CPU,也不会继续分配Map予其执行了。内存空间、磁盘空间等资源没有slot概念,剩余空间大小满足需求即认为可以分 配。在查找满足资源请求的节点时,会比较节点的这些剩余资源是否满足请求,而且还会优先选择负载低于集群平均值的节点。

(3)独立并发式的下推调度。之前架构下,调度器采用的是基于心跳模型的拉取调度:任务调度依赖于心跳,Map、Reduce的调度耦合在一起,而且对请求优先级采取全排序方式,时间复杂度为nlog(n),任务调度效率低下。

新 架构采用独立并发式的下推调度。Map、Reduce、JobTracker三种资源请求使用三个线程进行独立调度,对请求优先级采取堆排序的方 式,时间复杂度为log(n)。当有资源满足请求时,ClusterManager直接将资源下推到请求者,而不再被动地等待TaskTracker通过 心跳的方式获取分配的资源。

例如,一个Job有10个Map,每个Map需要1个核、2GB内存空间、10GB磁盘空间,如果有足够的资 源,Map调度线程查找到了满足这10 个Map的节点列表,ClusterManager会把节点列表下推到JobTracker;如果Map调度线程第一次只查找到了满足5个Map的节点列 表,ClusterManager会把这个列表下推到JobTracker,随后Map调度线程查找到了剩下5个Map的节点列 表,ClusterManager再把这个列表下推到JobTracker。

以前基于心跳模型的拉取调度被优化成独立并发式的下推调度之后,平均调度处理时间由80ms优化至1ms,集群的调度效率得到了提升。

3. Job提交过程

新 架构下,一次Job提交过程,需要Client和ClusterManager、TaskTracker均进行交互(如图3所 示):JobClient先向ClusterManager申请启动JobTracker所需要的资源;申请到之后,JobClient在指定的 TaskTracker上启动JobTracker进程,将Job提交给JobTracker;JobTracker再向ClusterManager申 请Map和Reduce资源;申请到之后,JobTracker将任务启动命令提交给指定的TaskTracker。

4. 存在的问题及应对措施

JobTracker分散化方案给计算引擎带来高效性和高扩展性,但没有带来高可用性,单一故障点的问题在此方案中仍然存在,此时的单一故障点问题有别于以前,如下所述。

(1)ClusterManager 如果发生故障,不会造成Job状态丢失而且在短时间内即可恢复。它只存储资源情况,不存储状 态,ClusterManager在很短的时间内可以重启完成。重启之后,TaskTracker重新向ClusterManager汇报资 源,ClusterManager从重启至完全获得集群的资源情况整个阶段可以在10秒内完成。

(2)JobTracker如果发生故障,只会影响单个Job,对其他Job不会造成影响。

基 于以上两点,认为新方案的单一故障点问题影响不大,而且考虑方案实施的复杂度和时效性,TDW在JobTracker分散化方案中没有设计高可用 方案,而是通过外围系统来降低影响:监控系统保证ClusterManager故障及时发现和恢复;Lhotse调度系统从用户任务级别保证Job重试。

NameNode高可用

1. 单点NameNode的问题

TDW 以前的存储引擎是单点NameNode,在一个业务对应一个集群的情况下,NameNode压力较小,出故障的几率也较小,而且 NameNode单点故障带来的影响不会波及全部业务。但当把各个小集群统一到大集群,各个业务都存储之上时,NameNode压力变大,出故障的几率也 变大,NameNode单点故障造成的影响将会非常严重。即使是计划内变更,停止NameNode服务耗时将近2个小时,计划内的停止服务变更也给用户带 来了较大的影响。

2. NameNode高可用方案

TDW设计了一种一主两热备的NameNode高可用方案。新架构下 NameNode角色有三个:一主(ActiveNameNode)两热备 (BackupNameNode)。ActiveNameNode保存namespace和block信息,对DataNode下发命令,并且对客户端提 供服务。BackupNameNode包括standby和newbie两种状态:standby提供对ActiveNameNode元数据的热备,在 ActiveNameNode失效后接替其对外提供服务,newbie状态是正处于学习阶段,学习完毕之后成为standby。

(1)Replicaton 协议。为了实现BackupNameNode对ActiveNameNode的元数据一致,随时准备接管 ActiveNameNode角色,元数据操作日志需要在主备间同步。客户端对元数据的修改不止在ActiveNameNode记录事务日志,事务日志还 需要从ActiveNameNode同步到BackupNameNode,客户端的每一次写操作,只有成功写入ActiveNameNode以及至少一个 BackupNameNode(或者ZooKeeper)时,才返回客户端操作成功。当没有BackupNameNode可写入时,把事务日志同步到 ZooKeeper来保证至少有一份事务日志备份。

客户端写操作记录事务日志遵循以下几个原则:

①写入ActiveNameNode,如果写入失败,返回操作失败,ActiveNameNode自动退出;

②当写入至少两个节点(Active-NameNode和Standby/ZooKeeper/LOG_SYNC newbie)时返回操作成功,其他返回失败;LOG_SYNC newbie表示newbie已经从ActiveNameNode获取到全量日志后的状态;

③当只成功写入ActiveNameNode,此后的Standby和ZooKeeper均写入失败时,返回失败;

④当只存在ActiveNameNode时,进入只读状态。

(2)Learning 协议。newbie学习机制确保newbie启动后通过向ActiveNameNode学习获取最新的元数据信息,学习到与 ActiveNameNode同步时变成standby状态。newbie从ActiveNameNode获取最新的fsimage和edits文件列 表,ActiveNameNode还会和newbie之间建立事务日志传输通道,将后续操作日志同步给newbie,newbie将这些信息载入内存,构 建最新的元数据状态。

(3)事务日志序号。为了验证事务日志是否丢失或者重复,为事务日志指定递增连续的记录号txid。在事务日志文件 edits中加入txid,保证 txid的连续性,日志传输和加载时保证txid连续递增,保存内存中的元数据信息到fsimage文件时,将当前txid写入fsimage头部,载入 fsimage文件到内存中时,设置元数据当前txid为fsimage头部的txid。安全日志序号(safe txid)保存在ZooKeeper上,ActiveNameNode周期性地将txid写入ZooKeeper作为safe txid,在BackupNameNode转换为ActiveNameNode时,需要检查BackupNameNode当前的txid是否小于safe txid,若小于则禁止这次角色转换。

(4)checkpoint协议。新架构仍然具有checkpoint功能,以减少日志的大小,缩 短重启时构建元数据状态的耗时。由 ActiveNameNode维护一个checkpoint线程,周期性地通知所有standby做checkpoint,指定其中的一个将产生的 fsimage文件上传给ActiveNameNode。

(5)DataNode双报。Block副本所在的节点列表是NameNode元 数据信息的一部分,为了保证这部分信息在主备间一致 性,DataNode采用双报机制。DataNode对块的改动会同时广播到主备,对主备下发的命令,DataNode区别对待,只执行主机下发的命令而 忽略掉备机下发的命令。

(6)引入ZooKeeper。主要用来做主节点选举和记录相关日志:NameNode节点状态、安全日志序号、必要时记录edit log。

3. 主备切换过程

当 主退出时主备状态切换的过程(如图4所示):当ActiveNameNode节点IP1由于某些原因退出时,两个备节点IP2和IP3通过向 ZooKeeper抢锁竞争主节点角色;IP2抢到锁成为ActiveNameNode,客户端从ZooKeeper上重新获取主节点信息,和IP2进行 交互,这时即使IP1服务恢复,也是newbie状态;事务日志在主备间同步,newbie IP1通过向主节点IP2学习成为standby状态。

4. 存在的问题

NameNode高可用方案给存储引擎带来了高可用性,但在高效性方面做出了一些牺牲,由于事务日志需要同步,写性能有20%左右的下降。

其他优化

TDW在实施大集群过程中,除了主要实施JobTracker分散化和NameNode高可用两个方案,还进行了一些其他优化。

1. NameNode分散化

随 着存储量和业务的不断增长,一个HDFS元数据空间的访问压力与日俱增。通过NameNode分散化来减少一个元数据空间的访问压力。 NameNode分散化主要对元数据信息进行分拆,对用户透明,用户访问认为处于同一个存储引擎,底层可以拆分成多个集群。TDW在Hive层增加用户到 HDFS集群的路由表,用户表的数据将写入对应的HDFS集群,对外透明,用户只需使用标准的建表语句即可。TDW根据公司业务的实际应用场景,根据业务 线和共享数据等把数据分散到两个HDFS集群,有利于数据共享同时也尽量规避集群间的数据拷贝。采用简单、改动最少的方案解决了实际的问题。

2. HDFS兼容

TDW 内部有三个HDFS版本:0.20.1、CDH3u3、2.0,线上主流版本是CDH3u3,主流HDFS版本使用的RPC框架尚未优化成Thrift或 者Protocol Buffers等,三个版本互不兼容,增加了互相访问的困难。通过RPC层兼容方式实现了CDH3u3和0.20.1之间的互通,通过完全实现两套接口方 式实现了CDH3u3和2.0之间的互通。

3. 防止数据误删除

重要数据的误删除会给TDW带来不可估量的影响,TDW为了 进一步增加数据存储可靠性,不仅开启NameNode回收站特性,还增加两个特性: 删除黑白名单,删除接口修改成重命名接口,白名单中的目录可以被删除,白名单中的IP可以进行删除操作,其他则不可;DataNode回收站,块删除操作 不会立即进行磁盘文件的删除,而是维护在待删除队列里,过期之后才进行实际的删除操作,这样可以保证在一定时间内如果发现重要的数据被误删除时可以进行数 据恢复,还可以防止NameNode启动之后元数据意外缺失而造成数据直接被删除的风险。

结束语

TDW从实际情况出发,采取了一系列的优化措施,成功实施了单个大规模集群的建设。为了满足用户日益增长的计算需求,TDW正在进行更大规模集群的 建设,并向实时化、集约化方向发展。TDW准备引入 YARN 作为统一的资源管理平台,在此基础上构建离线计算模型和Storm、Spark、Impala 等各种实时计算模型,为用户提供更加丰富的服务。


本文由守望者watchmen收集整理,部分内容源于网络。本文仅代表作者个人观点,不代表守望者的本意。如有违法侵权内容,请提交到守望者管理员处,立即处理。

会员评论  

已有0参与评论

推荐阅读

[守望者 算法视频]01_数据存储(链表与数组)
[守望者 算法视频]01_数据存储(链表与
本章重点介绍数据的在计算机的存储方式 :连续存储(数组)与链式存储,同时
[守望者   java初中级视频]22_javaNIO,AIO编程
[守望者 java初中级视频]22_javaNIO,
内容简介:本课程介绍阻塞,非阻塞,同步和异步的基本概念,介绍javaNIO,AIO
[守望者   java初中级视频]00_java初中级课程学习导航
[守望者 java初中级视频]00_java初中
内容简介:全面贾少这套视频课程学习需要具备的理论基础,以及适合的学习人群
【守望者 linux项目】linux下的FTP服务器与客户端,作者 灯下野狐 ...
【守望者 linux项目】linux下的FTP服务
本项目是一个完整的FTP服务器及FTP客户端设计示例,对于需要学习网络编程项目
【守望者 游戏项目】基于cocos2d-x的跑酷游戏项目教程
【守望者 游戏项目】基于cocos2d-x的跑
Cocos2d-x跑酷游戏项目教程Cocos2d-x跑酷游戏项目教程cocos2d-x特性cocos2
【守望者 linux项目】mini WEB服务器设计
【守望者 linux项目】mini WEB服务器设
以下是曾经Watchmen一个朋友学习网络编程时设计的一个简单的MiniWEB服务器。
【守望者 观点】智能路由和Wi-Fi探针是一对好基友
【守望者 观点】智能路由和Wi-Fi探针是
智能路由与Wifi探针可以收集用户行为,同时可以收集用户MAC地址,还可以跟踪
[守望者 linux视频]01_开发工具与开发平台
[守望者 linux视频]01_开发工具与开发
本课主要介绍gcc,gdb等系列开发工具,开始编写程序之旅。要求理解Linux开发平
[守望者 算法视频]08_数据查找_hash算法
[守望者 算法视频]08_数据查找_hash算
守望者:普通逐个查找O(n),组织方式可以无序的数组或者普通链表。已经排序的
【解读】什么样性格的人会被夸性格好
【解读】什么样性格的人会被夸性格好
守望者:性格决定命令。好的性格意识着给别人面子,能接受别人装逼,而且以上
[守望者 linux视频]02 进程内存管理与valgrind的使用
[守望者 linux视频]02 进程内存管理与v
本课主要介绍Linux可执行文件与进程内存结构, Linux进程结构及内存申请与释放
[守望者 C和指针]11_高级指针_C_面向对象
[守望者 C和指针]11_高级指针_C_面向对
(1) 彻底解决指针、取地址后的类型问题。(2) 回调函数示例。
【观点】闲聊阿里“996",全集团ALL IN无线策略及加班之意义 ...
【观点】闲聊阿里“996",全集团ALL IN
守望者:几乎的所有的员工都不喜欢8小时之外的工作,而几乎所有的老板都期望
【守望者 观点】你是哪种人?一个能看穿你的人性和欲望的测试 ...
【守望者 观点】你是哪种人?一个能看
守望者:这个心理测验来自西方,是与人潜意识有关。我10多年前认识个朋友,从
【守望者 Linux项目】二阶段提交应用项目(Two-phase commit protocol )2PC 高并发 . ...
【守望者 Linux项目】二阶段提交应用项
背景:以下是watchmen曾经编写的一个二阶段提交银行系统的项目。这个项目源于

行业聚焦  面试交流  职位推荐  开发视频   技术交流  腾讯微博  新浪微博

友情链接:课课家教育  阿里云  鲜果  W3Cfuns前端网  中国企业家  环球企业家  投资界  传媒梦工场  MSN中文网  Android开发者社区  cnbeta  投资中国网  又拍云存储  美通说传播  IT茶馆  网商在线  商业评论网  TechOrange  IT时代周刊  3W创新传媒  开源中国社区  二维工坊  Iconfans  推酷  智能电视网  FreeBuf黑客与极客  财经网  DoNews  凤凰财经  新财富  eoe移动开发者社区  i黑马  网易科技  新浪科技  搜狐IT  创业家  创业邦  腾讯财经  福布斯中文网  天下网商  TechWeb  雷锋网  新浪创业  和讯科技  品途O2O  极客公园  艾瑞网  抽屉新热榜  卖家网  人民网通信频道  拉勾网  创新派  简单云主机  

手机版|黑名单|守望者在线 在线教育 linux 高级程序设计 C/C++ 大数据 ( 蜀ICP备14029946号

成都守望者科技有限公司 © 2013-2016 All Rights Reserved