spark mapreduce 区别的语法和javase的区别

Java大数据全能课程
Java新全能课程
甲骨文本月优惠活动:
学甲骨文原厂Java课程,首选盈佳科技原厂Java培训,本月报名可0元入学、就业后付款。可申请免费试听赠送精美礼品,&更多优惠请咨询在线老师。
经老学员介绍,可以享受更多的优惠
课程优势:
1.Oracle公司于2008年收购Java语言的发明者Sun公司,成为Java的拥有者
2.课程源于甲骨文雇主企业的需求,真正符合企业用人需要
3.由获取甲骨文原厂国际认证的讲师授课
4.理论与实践并重,多个企业真实项目案例贯穿其中
5.真正的Oracle原厂教材,完整规范的技术知识体系
6.Oracle标准课程与国内主流技术的有机整合,实用性与指导性并重
7.涵盖最为流行SSH、Spring MVC、MyBatis、Web Service、JQuery、设计模式等技术
8.涵盖第一商用数据库Oracle和第一开源数据库MySQL
9.最新流行的Hadoop大数据开发技术
10.具备获取Oracle原厂国际认证OCJP和OCE-WCD的能力
适用群体:大专及以上学历,具备基本的计算机操作能力、基本的英语阅读能力
培养目标:具备高端、多方位、精英级水平的Java软件开发人才
就业岗位:Java/Java EE/J2EE研发工程师、Java开发员/程序员、Java/Java EE/J2EE工程师、Java框架师
课程内容:
课程及实训内容
C1&Java编程语言基础
主要知识点
走进Java语言
Java编程语言的特性;三大平台;JVM/ JRE/ JDK的概念和区别;JDK开发环境
变量和数据类型
变量和运算符;表达式;十六进制、二进制、八进制及转换;字节与位;位的与、或、异或、补运算;八种基本数据类型;字符串与标识符;注释语句
分支和循环语句
if /switch分支语句、while/ do-while/ for循环语句、增强型for循环
声明和使用方法
方法的声明和调用;重载方法
面向对象的编程;类和对象;字段/属性;垃圾回收
类的封装;public与private访问控制修饰符
声明和使用构造器
构造器的声明和使用;对象的内存模型
创建和使用数组
声明和使用数组、多维数组;命令行参数;方法的可变参数
P1&项目实训
A.家庭收支记账软件
模拟实现一个基于文本界面的《家庭收支记账软件》,该软件能够记录家庭的收入、支出,并能够生成收支明细表。该项目的目的在于掌握初步的编程技巧和调试技巧。主要涉及以下知识点:局部变量和基本数据类型、循环语句、分支语句、方法调用和返回值的接收、简单的屏幕输出格式控制。
B.客户信息管理软件
模拟实现一个基于文本界面的《客户信息管理软件》,该软件能够实现对客户对象的插入、修改和删除,并能够打印生成客户明细表。该项目的目的是进一步掌握编程技巧和调试技巧,熟悉面向对象编程。主要涉及以下知识点:类和对象(属性、方法及构造器)、类的封装、引用数组、数组的插入删除和替换、对象的聚集处理、多对象协同工作。
C2&Java面向对象的核心逻辑
主要知识点
类的继承;方法覆盖
多态引用和多态参数、instanceof运算符与对象的强制类型转换
对象关联与Object类
对象的关联与包容;继承Object类并使用equals、hashcode和toString方法
static与final修饰符
static与final修饰符的功能;修饰类、属性、方法的作用
抽象类、接口和枚举
声明和使用抽象类、接口、枚举类
package与import;jar包的管理;静态导入
异常的概念和用途、受检异常和非受检异常;异常的常用处理手段
P2项目实训
开发团队调度软件
模拟实现一个基于文本界面的《开发团队人员调度软件》,该软件实现以下功能:
“根据给定的数据创建公司部分成员列表,基于现有的公司成员,组建一个开发团队以开发一个新的项目。开发团队成员包括架构师、设计师和程序员。”;该项目的目的是熟悉Java面向对象的高级特性,进一步掌握编程技巧和调试技巧;主要涉及以下知识点:类的继承和多态、对象的关联、static和final修饰符、特殊类的使用、异常处理等。
C3&开发JavaSE高级应用程序
主要知识点
使用基础API
包裹类与拆箱/装箱、java.util.Math类、String/ StringBuffer/ StringBuilder类
集合与泛型
集合框架;Collection/Set/List类型的集合;泛型的使用;泛型的通配符类型参数
集合高级应用
HastSet/TreeSet集合算法与数据结构;;ArrayList/LinkedList集合算法与数据结构;Map集合;迭代器与遍历集合
I/O数据流访问
I/O的输入输出流、字节流与字符流;字符流链接与包装;字符节链接与包装
文件与对象序列化
File对象API;文件信息封装、目录信息封装;标准对象的序列化与反序列化;自定义序列化对象
控制台与格式化I/O
标准控制台I/O;scanf格式化输入;字符串格式化输出、日期时间格式化输出
创建和使用线程
多线程的创建与启动;线程的控制和结束;线程的基本状态、Sleep()、Join()方法
线程同步与交互
线程的共享数据;线程的同步、synchronized;线程的交互、wait()与notify()
P3项目实训
单机考试管理软件
仿真实现一个基于文本界面的《单机考试系统》,该系统能够提供机上考试功能,并且能够自动判分;能够自动记录最后考试成绩、查询显示考试的答题情况和成绩。该项目以增量方式开发,帮助学员建立查看使用API文档的习惯、掌握编程技巧和调试技巧。项目主要涉及以下主要知识点:基础API、集合的存储与遍历、I/O流基础知识、I/O流的链接、将散装数据合成对象、控制台I/O等。
C4&MySQL数据库设计与开发
主要知识点
走进MySQL数据库
MySQL发展简史与产品构成;MySQL数据库安装;经典world数据库。
服务器与客户端
MySQL服务器的启动与停止、客户端常用命令。
表数据查询
使用SELECT语句查询表数据;MySQL的数值、字符串、日期/时间等数据类型;使用SQL表达式。
管理数据库和表
创建、修改和删除数据库;创建、修改和删除表。
操作表数据
使用INSERT/UPDATE/DELETE进行数据的插入、修改和删除。
联接(join)概念;在SQL中联接表;基本联接、内联接、外联接。
预处理语句
预备、关闭预处理语句,基于参数执行预处理。
外键、外键约束和引用完整性。
事务与隔离级别
使用事务控制语句执行多个并发的SQL语句;理解事务的ACID属性;事务的隔离级别。
C5开发B/S架构企业应用
主要知识点
Java Web应用程序
JavaEE N层架构;组件-容器架构;常见的应用服务器、HTTP B/S架构、Web&站点
开发HTML页面
HTML语言、基本标签、文本-图片-表格-超链接等标签;MyEclipse开发环境、Tomcat部署环境
可扩展标记语言XML
XML用途;XML树形结构与语法规则;XML的开发和配置;XML DTD、查看XML文档
开发Java Servlet组件
Web标准组件Servlet;Servlet工作原理和生命周期;XML与注解方式配置Servlet
开发JSP组件
JSP工作原理和生命周期;指令、声明、注释、Scriptlet和表达式等脚本元素;JSP隐含变量
Model 2架构
Model2架构原理;软件模式的概念、模型-视图-控制模式、使用Model 2架构设计应用程序
开发HTML表单
HTML表单、form标签、输入组件、下拉列表组件、文本区域组件;GET/POST请求的表单数据
实现Model 2控制器
Servlet控制器处理流程;获取表单参数的方法、请求作用域、请求调度器RequestDispatcher
实现Model 2服务组件
业务逻辑的封装原理;GoF设计模式简介、Singleton单例模式、使用Service组件实现业务逻辑
开发过滤器组件
过滤器原理;page/request/session/appication四个作用域、Web应用生命周期、过滤器类配置
开发标签化JSP页面
EL表达式语言;EL隐含对象与运算符;JSTL标签库,set / if / forEach / url等常用标签
使用JDBC访问数据库
JDBC实现原理;Connection、Statement/PreparedStatement、ResultSet;SQL&-&Java双向数据转换
实现对象-关系映射(ORM)
对象-关系映射ORM原理;DataSource连接池和JNDI;DAO模式原理、DAO封装数据访问逻辑
P4项目实训
书籍库存登记系统
仿真实现一个基于B/S的《书籍库存登记系统》。该系统提供书籍入库登记和库存列表功能,并实现列出库存书籍详细信息。系统以增量方式开发,循序渐进完成,目的在于掌握Web应用程序编程和调试技巧。主要涉及以下主要知识点:Model 2架构的实现、使用Servlet实现控制器,JSP实现视图、表单的各种组件的处理、使用DAO模式,通过DataSource访问数据、在Web应用程序中整合MySQL数据库。
C6&Oracle数据库设计与开发
主要知识点
走进Oracle数据库
Oracle数据库产品、Oracle数据库环境、Oracle客户端-服务器模型
安装Oracle数据库
在Linux中安装Oracle、在Windows中安装Oracle,以及首次使用Oracle准备工作
服务器与客户端
Oracle服务器进程、数据库管理员、Oracle Enterprise Manager和SQL*Plus工具
表数据查询
Oracle数据库的组织结构、使用SELECT查询数据、聚集的使用,如SUM、COUNT、AVG等
管理数据库表
SQL语句DML、DDL等类型、数据类型、表的创建、修改和删除、数据的插入、修改和删除
SQL函数与类型转换
SQL基本函数,字符函数、数值函数、日期函数;Oracle空值(NULL)的处理、数据类型转换
多表联接与集合
多表联接,包括内联接、左外联接、右外联接、自联接、全联接等;集合的交集、并集等运算
Oracle事务基本概念、ACID特性、事务控制语句COMMIT、ROLLBACK,安全点SAVEPOINT
C7开发SSH架构企业应用
主要知识点
使用Struts框架
Struts2框架的MVC工作原理;Action API;编写和配置Action类;Struts基本标签。
Struts资源文件
Struts资源文件原理;三级资源文件;JSP访问全局资源文件;Action访问包级资源。
Struts注解与验证
Struts注解配置;常用的注解类;验证器的工作原理;使用Struts注解验证器验证表单。
实现会话管理
HttpSession会话管理机制的原理;Cookie机制、URL重写机制;HttpSession API、创建下销毁。
Struts拦截器vs.过滤器
Struts2拦截器原理;拦截器与拦截器栈;Timer拦截器;过滤器比较;使用过滤器实现用户认证。
开发可复用表示组件
Web表示片段的规划与使用;include指令和jsp:include标签;布局复用;页面三级嵌套的实现。
Spring控制反转
Spring3.X框架的架构及特点;控制反转IoC;SpringBean依赖注入(DI);单例与多例;容器API
Spring注解配置
Spring注解配置Bean;常用的注解类;@Component与@Controller、@Service&和@Repository比较。
整合Struts与Spring框架
Spring与Struts2整合原理;Spring容器的整合创建;将Action纳入Spring容器管理。
Hibernate原理与实现
Hibernate框架原理;对象关系映射(ORM);静态与动态映射;Hibernate核心接口和配置文件。
应用Hibernate实体
Hibernate实体对象的状态和运行原理;HQL检索方式;HQL动态参数绑定;HQL语法规则。
整合Spring与Hibernate框架
整合Spring与Hibernate框架、整合方案结构;配置JNDI DataSource、使用HibernateTemplete Bean。
Hibernate实体关联关系
实体与表的关联关系;关联关系特性;一对一、一对多、多对一、多对多单、双向关联关系映射。
Spring AOP事务管理
Spring AOP原理;AOP核心概念、AOP事务模型;AOP事务管理器;@Transactional事务注解及属性。
P5项目实训
TNA电信网络学院
实现一个真实的、基于SSH架构的《电信网络学院(TNA)系统》。系统是以当今主流企业级学习管理系统&(Oracle LMS)为平台,并结合电信行业的具体业务特点和未来发展趋势量身定做的,可满足层级式企业的日常培训需求。系统基于SunTone架构方法学,以增量方式开发,循序渐进完成,目的在于掌握基于SSH架构的Web应用程序的编程和调试技巧。主要涉及以下知识点:基于SSH框架的Model 2架构的实现、使用Struts2框架的高级特性,如OGNL、验证与资源、拦截器、HttpSession会话管理、可复用表示组件的实际运用、Spring框架的Ioc与AOP特征、使用Hibernate框架访问Oracle数据库、三大框架的有机整合。
C8开发RIA商用企业应用
主要知识点
JavaScript语言基础
JavaScript语言的语法、变量和运算符、数据类型;流程控制语句和循环语句;数组、函数和对象。
JavaScript对象与事件
内置对象String、Date、Math;HTML事件处理、一次性/周期性定时器;window和document对象。
层叠样式表CSS
CSS层叠样式表;内联式、内部和外部引用;标签/类/ID选择符;CSS盒子模型;CSS伪类及应用。
使用CSS开发页面
DIV与SPAN标签、DIV区块的定义;DIV区块居中显示;使用CSS/DIV实现页面专业布局。
使用jQuery开发页面
jQuery框架特性和应用;JQuery核心函数;操作DOM元素;使用JQuery插件实现日期选择、树形视图、链接预览、文字限制器、表单验证。
AJAX与jQuery
RIA与AJAX概念、AJAX原理及应用;jQuery AJAX表单处理、ajax()方法参数;JQuery实现Ajax编程。
C9&Java高手实战
主要知识点
Java语言高级特征
嵌套类、内部类、匿名类;反射创建实例、访问字段和方法;注解的用途、内置注解与自定义注解。
实现TCP/IP网络通讯
TCP/IP Socket工作原理;Socket服务器编程、Socket客户端编程;实现多线程服务器
GoF设计模式
常用的GoF设计模式,如单例模式、工厂方法模式、适配器模式、命令模式等
Spring MVC框架
Spring MVC框架的应用;基于Spring MVC的控制器、视图和模型组件实现
应用MyBatis框架
MyBatis原理及应用;实现MyBatis&OR映射;MyBatis的接口绑定;基于MyBatis的业务层组件
整合Spring与MyBatis框架
整合Spring与MyBatis框架,使用SqlSessionFactoryBean与SqlSessionTemplate访问数据库
Web Service概念、原理与用途;JAX-WS与CXF;Web Service与客户端编程
开发RESTful Web Service应用
RESTful Web Service概念与原理;JAX-RS与CXF;JSON数据格式;RESTful&Web Service与客户端编程
P6项目实训
EBP电子商务平台
实现一个真实的、基于RIA的《电子商务平台(EBP)系统》。企业电子商务平台是建立在互联网上进行商务活动的虚拟网络空间和保障商务顺利运营的管理环境;是协调、整合信息流、物质流、资金流的有序、关联、高效流动的重要场所。该系统基于SunTone架构方法学增量方式开发,循序渐进完成项目,目的在于掌握基于SSH架构的RIA Web应用程序的编程和调试技巧。主要涉及以下知识点:jQuery框架,及AJAX技术、SSH架构的Web应用程序实现、页面使用JavaScript及CSS技术实现、使用Oracle数据库作为数据源、在Linux操作系统中部署并运行。
C10&Linux操作系统使用与管理
主要知识点
UNIX和Linux的历史、现状及发展;Linux操作的不同产品。
安装操作系统
Linux操作系统的的安装与初始化配置。
Linux基本命令、常用命令操作;vi编辑器的三种状态及状态间的切换、常用的编辑命令。
用户和组的概念、口令、权限等管理机制;系统管理、启动过程、任务调度;root密码安全设置。
Service概念;环境变量设置;进程的查看、监视、调度和控制;远程Telnet,FTP等网络技术。
Linux的基本的目录结构、文件属性和访问权限。
磁盘分区、磁盘的挂接原理;为Linux增加磁盘;逻辑卷管理。
Linux进程的概念,进程的基本原理;进程相关的管理命令。
专家讲堂:企业大型项目的实施与职业规划
企业大型项目的实施过程,开发团队工作角色、工作职责;项目的四个阶段与七大工作流;企业真实项目开发过程解析;UML工具,包括用例图、类图、组件图、序列图等;代码分析;对未来的职业规划;与开发相关的岗位职责及选择;合理的自我定位;成为企业“喜欢”的员工;典型的小、中、大至超大型企业应用系统的架构、部署环境及实现技术;企业流行的前端、后端技术总结,以及架构分析。
C11 Hadoop大数据处理
主要知识点
大数据与Hadoop
大数据的概念与特点;Hadoop发展历史;Hadoop在大数据处理中的应用;Hadoop生态系统
配置Hadoop运行环境
Hadoop的三种运行模式;Hadoop安装环境配置;Hadoop进程启停;执行经典案例WordCount
Hadoop系统架构
Hadoop&基本原理;Hadoop 1.x架构及后台进程;HDFS架构与命名空间;HDFS数据存储与复制
使用HDFS文件系统
HDFS常用命令,如ls、cat、put、get等;HDFS管理与维护,safemode管理,balancer工具等
开发HDFS应用程序
使用Eclipse IDE,安装Hadoop插件;使用Hadoop API访问HDFS,包括文件读写、管理等
MapReduce分布式计算
MapReduce编程模型及工作原理;&MapReduce作业调度;分析WordCount运行原理,分析源代码
开发MapReduce应用程序
MapReduce程序自定义Combiner;内置数据类型、自定义数据类型;实现MapReduce组合式作业
大数据处理平台Pig
Pig大数据处理平台;Pig工作模式;Pig运行方式;Pig Latin语法、操作命令、数据类型、表达式等
开发Pig脚本应用
Pig常用函数、不同类型的数据检索,包括建表、查询、关联查询等;开发Pig脚本应用程序
数据仓库工具Hive
数据仓库简介;数据仓库工具Hive的用途;Hive架构;Hive三种运行模式;Hive QL的JDBC编程
无限大表数据库HBase
Hadoop数据库HBase用途;HBase逻辑模型与物理模型;HBase Shell模式命令、HBase API编程
P8&项目实训
HDFS大数据云盘
实现一个Web客户端的大数据云盘系统。该系统以Hadoop的HDFS文件系统为存储介质,因些具有海量存储的能力。云盘系统可供用户上传文件、查看、管理和共享云文件。项目主要涉及以下知识点:搭建和配置Hadoop环境,启动Hadoop进程,HDFS文件命令使用,使用HDFS API,编写处理HDF云盘处理程序,用Web界面查看操作HDFS等。
P9&项目实训
美国历年航班大数据统计分析
本项目基于美国民航航班的历年数据(1987年-2008年),计算处理某一年各个航班的飞行架次等数据。项目将原始数据上传到Hadoop的HDFS上,通过编写MapReduce程序读取航班数据并计算和统计航班相关数据。项目主要涉及以下知识点:搭建和配置Hadoop环境,启动Hadoop进程,开发航班处理MapReduce程序、Pig脚本程序,使用Hive JDBC处理数据,通过JSP查询处理过结果。
甲骨文微信
盈佳科技微信
总部地址:北京市北四环中路229号海泰大厦2层
Copyright @中明盈佳(北京)计算机科技有限公司 All Rights Reserved.
京ICP备号-1Ubuntu14.04用apt安装CDH5.1.2[Apache Hadoop 2.3.0]
时间: 01:35:04
&&&& 阅读:182
&&&& 评论:
&&&& 收藏:0
标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&
---------------------------------------
博文作者:迦壹
博客名称:Ubuntu14.04用apt安装CDH5.1.2[Apache Hadoop 2.3.0]
博客地址:
转载声明:可以转载, 但必须以超链接形式标明文章原始出处和作者信息及版权声明,谢谢合作!
---------------------------------------
  1、CDH介绍
    1.1、什么是CDH和CM?
    1.2、CDH的主要功能?
    1.3、CDH版本衍化
    1.4、CDH5.1.2支持的主要组件简要介绍
  2、CDH的官网在哪里?
  3、CDH在哪里下载?
  4、如何安装
    4.1、设置Host
    4.2、设置静态IP
    4.3、设置Host
    4.4、关闭防火墙
    4.5、安装JDK7,CDH5要求至少是Oracle JDK7
    4.6、安装MySql最新版,CM的数据库我们用My Sql管理
    4.6.1、在主机上使用apt-get安装My Sql
    4.6.2、修改MySql配置,方便CM使用
      4.6.2.1、配置MySql的监听地址
      4.6.2.1、配置MySql的其他配置,为了CM使用
    4.7、创建后面在CM中会使用的数据库
    4.8、重启MySql,查看3306端口,并安装MySql对Java的支持&
    4.9、安装Cloudera Manager组件
      4.9.1、将Ubuntu 14.04暂时伪造成Ubuntu12.04
      4.9.2、升级Ubuntu的utils包,CM所必需要
      4.9.3、将CDH5的软件源添加到Apt中
      4.9.4、安装Cloudera Manager
      4.9.5、修改Cloudera-Manager-Server的配置文件db.properties,设置MySql连接
      4.9.6、安装ntp ,CM agents需要用到"ntpdc"
      4.9.7、重启Cloudera Manager Server
    4.10、通过Web方式继续安装
      4.10.1、创建update-alternatives工具在/usr/sbin/下创建软链
      4.10.2、打开浏览器,输入 http://m1.idoall.org:7180/ 开始安装
  5、FAQ
  1、CDH介绍
    1.1、什么是CDH和CM?
  CDH一个对Apache Hadoop的集成环境的封装,可以使用Cloudera Manager进行自动化安装。
  Cloudera-Managerceql(本文中简称CM)是一个工具,CM能够管理一个大的Hadoop cluster并不是一只要下载tar files什么压缩并启动services这么简单。后续有非常多设定、监控等麻烦的事要处理,CM都能够做到,有些类似。Cloudera Manager整合了一列的功能让系统管理者能更方便的维护Hadoop。
    1.2、CDH的主要功能?
    (1)管理
    (2)监控
    (3)诊断
    (4)集成
    1.3、CDH版本衍化
  Hadoop是一个开源项目,所以很多公司在这个基础进行商业化,Cloudera对hadoop做了相应的改变。
  Cloudera公司的发行版,我们将该版本称为CDH(Cloudera Distribution Hadoop)。截至目前为止,CDH共有5个版本,其中,前两个已经不再更新,最近的两个,分别是CDH4在Apache Hadoop 2.0.0版本基础上演化而来的),CDH5,它们每隔一段时间便会更新一次。
  Cloudera以Patch Level划分小版本,比如Patch Level为923.142表示在原生态Apache Hadoop 0.20.2基础上添加了1065个Patch(这些Patch是各个公司或者个人贡献的,在Hadoop jira上均有记录),其中923个是最后一个Beta版本添加的Patch,而142个是稳定版发行后新添加的Patch。由此可见,Patch Level越高,功能越完备且解决的Bug越多。
  Cloudera版本层次更加清晰,且它提供了适用于各种操作系统的Hadoop安装包,可直接使用apt-get或者yum命令进行安装,更加省事。
  在CDH5以上的版本中,已经加入了Hadoop2.0的HA单点故障解决方案。可以参考《》中的单点故障测试。
    1.4、CDH5.1.2支持的主要组件简要介绍
  [HTTPFS]
    1:Httpfs是Cloudera公司提供的一个Hadoop Hdfs的一个Http接口,通过WebHDFS REST API 可以对hdfs进行读写等访问
    2:与WebHDFS的区别是不需要客户端可以访问Hadoop集群的每一个节点,通过Httpfs可以访问放置在防火墙后面的Hadoop集群
    3:Httpfs是一个Web应用,部署在内嵌的Tomcat中
  [HBASE]
  Hbase是Bigtable的开源山寨版本。是建立的Hdfs之上,提供高可靠性、高性能、列存储、可伸缩、实时读写的数据库系统。
  它介于Bosql和RDBMS之间,仅能通过主键(row key)和主键的Range来检索数据,仅支持单行事务(可通过Hive支持来实现多表Join等复杂操作)。主要用来存储非结构化和半结构化的松散数据。
  与Hadoop一样,Hbase目标主要依靠横向扩展,通过不断增加廉价的商用服务器,来增加计算和存储能力。
  [HDFS]
  Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是作为Apache &Nutch搜索引擎项目的基础架构而开发的。HDFS是Apache Hadoop Core项目的一部分。
  [HIVE]
  Hive 是一个基于 Hadoop 的开源数据仓库工具,用于存储和处理海量结构化数据。它把海量数据存储于 Hadoop 文件系统,而不是数据库,但提供了一套类数据库的数据存储和处理机制,并采用 HQL (类 SQL )语言对这些数据进行自动化管理和处理。我们可以把 Hive 中海量结构化数据看成一个个的表,而实际上这些数据是分布式存储在 HDFS 中的。 Hive 经过对语句进行解析和转换,最终生成一系列基于 hadoop 的 Map/Reduce 任务,通过执行这些任务完成数据处理。
  Hue是CDH专门的一套WEB管理器,它包括3个部分Hue Ui,Hue Server,Hue db。Hue提供所有的CDH组件的Shell界面的接口。你可以在Hue编写MR,查看修改HDFS的文件,管理Hive的元数据,运行Sqoop,编写Oozie工作流等大量工作。
  [Impala]
  Impala对你存储在Apache Hadoop在HDFS,HBase的数据提供直接查询互动的SQL。除了像Hive使用相同的统一存储平台,Impala也使用相同的元数据,SQL语法(Hive SQL),ODBC驱动程序和用户界面(Hue Beeswax)。Impala还提供了一个熟悉的面向批量或实时查询和统一平台。
  [MapReduce]
  MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念"Map(映射)"和"Reduce(归约)",和他们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。他极大地方便了编程人员在不会分布式并行编程的情况下,将自己的程序运行在分布式系统上。 当前的软件实现是指定一个Map(映射)函数,用来把一组键值对映射成一组新的键值对,指定并发的Reduce(归约)函数,用来保证所有映射的键值对中的每一个共享相同的键组。MapReduce更多运行于离线系统,而实时计算,可以使用Storm。关于Sotrm的使用和介绍,可以参考这篇文章《》。
  [Oozie]
  Oozie是Yahoo针对Apache Hadoop开发的一个开源工作流引擎。用于管理和协调运行在Hadoop平台上(包括:HDFS、Pig和MapReduce)的Jobs。Oozie是专为雅虎的全球大规模复杂工作流程和数据管道而设计。
  [Solr]
  Solr是一个基于Lucene的Java搜索引擎服务器。Solr 提供了层面搜索、命中醒目显示并且支持多种输出格式(包括 XML/XSLT 和 JSON 格式)。它易于安装和配置,而且附带了一个基于 HTTP 的管理界面。Solr已经在众多大型的网站中使用,较为成熟和稳定。Solr 包装并扩展了 Lucene,所以Solr的基本上沿用了Lucene的相关术语。更重要的是,Solr 创建的索引与 Lucene 搜索引擎库完全兼容。通过对 Solr 进行适当的配置,某些情况下可能需要进行编码,Solr 可以阅读和使用构建到其他 Lucene 应用程序中的索引。此外,很多 Lucene 工具(如Nutch、 Luke)也可以使用 Solr 创建的索引。
  [Spark]
  Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于map reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的map reduce的算法。
  Spark和Storm类似,都是基于内存的运行,不确定哪种方式在数据吞吐量上要具优势,不过Storm计算时间延迟要小。关于Sotrm的使用和介绍,可以参考这篇文章《》。
  [Sqoop]
  Sqoop中一大亮点就是可以通过hadoop的mapreduce把数据从关系型数据库中导入数据到HDFS。sqoop架构非常简单,其整合了Hive、Hbase和Oozie,通过map-reduce任务来传输数据,从而提供并发特性和容错。sqoop主要通过JDBC和关系数据库进行交互。理论上支持JDBC的database都可以使用sqoop和hdfs进行数据交互。
  [YARN]
  YARN可以理解为是Hadoop MapReduceV2版本,YARN重构根本的思想是将 JobTracker 两个主要的功能分离成单独的组件,这两个功能是资源管理和任务调度 / 监控。新的资源管理器全局管理所有应用程序计算资源的分配,每一个应用的 ApplicationMaster 负责相应的调度和协调。一个应用程序无非是一个单独的传统的 MapReduce 任务或者是一个 DAG( 有向无环图 ) 任务。ResourceManager 和每一台机器的节点管理服务器能够管理用户在那台机器上的进程并能对计算进行组织。
  事实上,每一个应用的 ApplicationMaster 是一个详细的框架库,它结合从 ResourceManager 获得的资源和 NodeManager 协同工作来运行和监控任务。
  [Zookeeper]
  Zookeeper 分布式服务框架是 Apache Hadoop 的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。
  Zookeeper 作为一个分布式的服务框架,主要用来解决分布式集群中应用系统的一致性问题,它能提供基于类似于文件系统的目录节点树方式的数据存储,但是 Zookeeper 并不是用来专门存储数据的,它的作用主要是用来维护和监控你存储的数据的状态变化。通过监控这些数据状态的变化,从而可以达到基于数据的集群管理。
  2、CDH的官网在哪里?
  3、CDH在哪里下载?
  由于CDH有多个版本,作者不建议单独下载安装,可以通过cloudera-manager-daemons、cloudera-manager-server、cloudera-manager-agent来安装,本文后面会有介绍。
  4、如何安装(本文中带有1个#号的是说明,带有2个#号的说明注释,在代码中如果包含2个#号请自行过滤)
    4.1、设置Host
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.10&&& m1.idoall.org&& m1
192.168.1.11&&& m2.idoall.org&& m2
192.168.1.12&&& s1.idoall.org&& s1
192.168.1.13&&& s2.idoall.org&& s2
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
    4.2、设置静态IP
iface wlan0 inet static
address 192.168.1.10
netmask 255.255.255.0
gateway 192.168.1.1
dns-nameservers 192.168.1.1
dns-nameservers 8.8.8.8
    4.3、设置Host
m1.idoall.org
    4.4、关闭防火墙
    4.5、安装JDK7,CDH5要求至少是Oracle JDK7
java version "1.7.0_67"
Java(TM) SE Runtime Environment (build 1.7.0_67-b01)
Java HotSpot(TM) 64-Bit Server VM (build 24.65-b04, mixed mode)
    4.6、安装MySql最新版,CM的数据库我们用My Sql管理
  安装Mysql Server,后面在安装Cloudera Manager的时候会用到,如果你要使用PostGreSQL ,可以跳过这一步 (4.6-4.8)。
    4.6.1、在主机上使用apt-get安装My Sql,安装过程中会有提示,一直接回车就可以 (4台机器都要执行)&
    4.6.2、修改MySql配置,方便CM使用
      4.6.2.1、配置MySql的监听地址
  对Mysql的配置项进行修改,先备份,找到&bind-address = 127.0.0.1&这一行,然后注释掉,改成&bind-address = 0.0.0.0&&
bind-address = 0.0.0.0
      4.6.2.1、配置MySql的其他配置,为了CM使用
  MySql配置中,其中对于Cloudera的支持,可以参考
default-character-set=utf8
transaction-isolation=READ-COMMITTED
# Disabling symbolic-links is recommended to prevent ass
# to do so, uncomment this line:
# symbolic-links=0
character-set-server=utf8
key_buffer&&&&&&&&&&&&& = 16M
key_buffer_size&&&&&&&& = 32M
max_allowed_packet&&&&& = 32M
thread_stack&&&&&&&&&&& = 256K
thread_cache_size&&&&&& = 64
query_cache_limit&&&&&& = 8M
query_cache_size&&&&&&& = 64M
query_cache_type&&&&&&& = 1
max_connections&&&&&&&& = 550
# log-bin should be on a disk with enough free space
# NOTE: replace ‘/x/home/mysql/logs/binary‘ below with
#&&&&&& an appropriate path for your system.
log-bin=/x/home/mysql/logs/binary/mysql_binary_log
# For MySQL version 5.1.8 or later. Comment out binlog_format for older versions.
binlog_format&&&&&&&&&& = mixed
read_buffer_size = 2M
read_rnd_buffer_size = 16M
sort_buffer_size = 8M
join_buffer_size = 8M
# InnoDB settings
innodb_file_per_table = 1
innodb_flush_log_at_trx_commit& = 2
innodb_log_buffer_size&&&&&&&&& = 64M
innodb_buffer_pool_size&&&&&&&& = 4G
innodb_thread_concurrency&&&&&& = 8
innodb_flush_method&&&&&&&&&&&& = O_DIRECT
innodb_log_file_size = 512M
[mysqld_safe]
log-error=/var/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid
    4.7、创建后面在CM中会使用的数据库
root@m1:~# mysql -u root -p
Enter password:
Welcome to the MySQL monitor. Commands end with ; or \g.
Your MySQL connection id is 42
Server version: 5.5.38-0ubuntu0.14.04.1 (Ubuntu)
Copyright (c) , Oracle and/or its affiliates. All rights reserved.
Oracle is a registered trademark of Oracle Corporation and/or its
affiliates. Other names may be trademarks of their respective
Type ‘‘ or ‘\h‘ for help. Type ‘\c‘ to clear the current input statement.
## Cloudera manager db user, database and grant
mysql& create user ‘cmf‘@‘%‘ identified by ‘xyz‘;
Query OK, 0 rows affected (0.00 sec)
mysql& create database cmf& DEFAULT CHARACTER SET utf8 COLLATE utf8_general_
Query OK, 1 row affected (0.00 sec)
mysql& grant all privileges on cmf.* to ‘cmf‘@‘%‘ identified by ‘xyz‘;
Query OK, 0 rows affected (0.00 sec)
## For activity monitor
mysql& create user ‘amon‘@‘%‘ identified by ‘xyz‘;
Query OK, 0 rows affected (0.00 sec)
mysql& create database amon& DEFAULT CHARACTER SET utf8 COLLATE utf8_general_
Query OK, 1 row affected (0.00 sec)
mysql& grant all privileges on amon.* to ‘amon‘@‘%‘ identified by ‘xyz‘;
Query OK, 0 rows affected (0.00 sec)
## Hive Meta store
mysql& create user ‘hive‘@‘%‘ identified by ‘xyz‘;
Query OK, 0 rows affected (0.00 sec)
mysql& create database metastore& DEFAULT CHARACTER SET utf8 COLLATE utf8_general_
Query OK, 1 row affected (0.00 sec)
mysql& grant all privileges on metastore.* to ‘hive‘@‘%‘ identified by ‘xyz‘;
Query OK, 0 rows affected (0.00 sec)
## Flush all changes
mysql& FLUSH PRIVILEGES;
Query OK, 0 rows affected (0.00 sec)
    4.8、重启MySql,查看3306端口,并安装MySql对Java的支持&
tcp 0 0 0.0.0.0:.0.0:* LISTEN 2207/mysqld
Reading package lists... Done
Building dependency tree
Reading state information... Done
Suggested packages:
liblog4j1.2-java libcommons-logging-java
The following NEW packages will be installed:
libmysql-java
0 upgraded, 1 newly installed, 0 to remove and 4 not upgraded.
Need to get 894 kB of archives.
After this operation, 1,060 kB of additional disk space will be used.
Get:1 http://mirrors./ubuntu/ trusty/universe libmysql-java all 5.1.28-1 [894 kB]
Fetched 894 kB in 1s (718 kB/s)
Selecting previously unselected package libmysql-java.
(Reading database ... 96338 files and directories currently installed.)
Preparing to unpack .../libmysql-java_5.1.28-1_all.deb ...
Unpacking libmysql-java (5.1.28-1) ...
Setting up libmysql-java (5.1.28-1) ...
    4.9、安装Cloudera Manager组件
      4.9.1、将Ubuntu 14.04暂时伪造成Ubuntu12.04
  Ubuntu 14.04暂时伪造成Ubuntu12.04,因为在写本文时CM现在还不支持14.04这个版本,CDH以后的版本应该会支持吧(4台机器都要执行)
DISTRIB_ID=Ubuntu
DISTRIB_RELEASE=12.04
DISTRIB_CODENAME=precise
DISTRIB_DESCRIPTION="Ubuntu 12.04.3 LTS"
      4.9.2、升级Ubuntu的utils包,CM所必需要
  在所有机器上安装debian的包,升级utils,执行以下命令:(4台机器都要执行)&
      4.9.3、将CDH5的软件源添加到Apt中
      4.9.4、安装Cloudera Manager
  安装Cloudera Manager(4台机器都要执行)
      4.9.5、修改Cloudera-Manager-Server的配置文件db.properties,设置MySql连接
  修改Cloudera-Manager-Server的配置文件db.properties,设置刚才我们在(4.7)Mysql中创建的cmf数据库、用户名、密码(4台机器都要执行)
com.cloudera.cmf.db.type=mysql
com.cloudera.cmf.db.host=localhost
com.cloudera.cmf.db.name=cmf
com.cloudera.cmf.db.user=cmf
com.cloudera.cmf.db.password=xyz
      4.9.6、安装ntp ,CM agents需要用到"ntpdc"
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following extra packages will be installed:
Suggested packages:
The following NEW packages will be installed:
libopts25 ntp
0 upgraded, 2 newly installed, 0 to remove and 4 not upgraded.
Need to get 666 kB of archives.
After this operation, 1,668 kB of additional disk space will be used.
Do you want to continue? [Y/n] y
Get:1 http://mirrors./ubuntu/ trusty/main libopts25 amd64 1:5.18-2ubuntu2 [55.3 kB]
Get:2 http://mirrors./ubuntu/ trusty/main ntp amd64 1:4.2.6.p5+dfsg-3ubuntu2 [611 kB]
Fetched 666 kB in 1s (537 kB/s)
Selecting previously unselected package libopts25:amd64.
(Reading database ... 95843 files and directories currently installed.)
Preparing to unpack .../libopts25_1%3a5.18-2ubuntu2_amd64.deb ...
Unpacking libopts25:amd64 (1:5.18-2ubuntu2) ...
Selecting previously unselected package ntp.
Preparing to unpack .../ntp_1%3a4.2.6.p5+dfsg-3ubuntu2_amd64.deb ...
Unpacking ntp (1:4.2.6.p5+dfsg-3ubuntu2) ...
Processing triggers for man-db (2.6.7.1-1) ...
Processing triggers for ureadahead (0.100.0-16) ...
Setting up libopts25:amd64 (1:5.18-2ubuntu2) ...
Setting up ntp (1:4.2.6.p5+dfsg-3ubuntu2) ...
* Starting NTP server ntpd [ OK ]
Processing triggers for libc-bin (2.19-0ubuntu6.1) ...
Processing triggers for ureadahead (0.100.0-16) ...
      4.9.7、重启Cloudera Manager Server
  启动Cloudera manager (4台机器都要执行)&
Starting cloudera-scm-server: * cloudera-scm-server started
  #查看Cloudera manager的启动日志,如果能够看到下面的类似信息,说明启动正确,tailf -100 /var/log/cloudera-scm-server/cloudera-scm-server.log或者/var/log/cloudera-scm-server/cloudera-scm-server.out,如果看不到类似下面的信息,那么也可以看到哪里出了问题,大多数都是和数据库的配置有关系。
23:07:52,643 INFO [JvmPauseMonitor:debug.JvmPauseMonitor@236] Detected pause in JVM or host machine (e.g. a stop the world GC, or JVM not scheduled): paused approximately 1182ms: GC pool ‘Copy‘ had collection(s): count=1 time=1641ms
23:07:52,644 INFO [JvmPauseMonitor:debug.JvmPauseMonitor@236] Detected pause in JVM or host machine (e.g. a stop the world GC, or JVM not scheduled): paused approximately 1634ms: GC pool ‘Copy‘ had collection(s): count=1 time=1641ms
23:07:52,696 INFO [WebServerImpl:servlet.DispatcherServlet@339] FrameworkServlet ‘Spring MVC Dispatcher Servlet‘: initialization completed in 18068 ms
23:07:52,793 INFO [WebServerImpl:cmon.JobDetailGatekeeper@127] ActivityMonitor configured to allow job details for all jobs.
23:07:53,407 INFO [SearchRepositoryManager-0:components.SearchRepositoryManager@399] Initializing SearchTemplateManager:T06:07:53.407Z
23:07:53,730 INFO [SearchRepositoryManager-0:components.SearchRepositoryManager@403] Generating entities:T06:07:53.730Z
23:07:53,821 INFO [SearchRepositoryManager-0:components.SearchRepositoryManager@407] Num entities:112
23:07:53,822 INFO [SearchRepositoryManager-0:components.SearchRepositoryManager@409] Generating documents:T06:07:53.822Z
23:07:53,891 INFO [SearchRepositoryManager-0:components.SearchRepositoryManager@411] Num docs:124
23:07:53,892 INFO [SearchRepositoryManager-0:components.SearchRepositoryManager@352] Constructing repo:T06:07:53.892Z
23:07:53,979 INFO [WebServerImpl:mortbay.log@67] jetty-6.1.26.cloudera.2
23:07:54,008 INFO [WebServerImpl:mortbay.log@67] Started SelectChannelConnector@0.0.0.0:7180
23:07:54,009 INFO [WebServerImpl:cmf.WebServerImpl@292] Started Jetty server.
23:07:55,276 INFO [SearchRepositoryManager-0:components.SearchRepositoryManager@354] Finished constructing repo:T06:07:55.276Z
    4.10、通过Web方式继续安装
      4.10.1、创建update-alternatives工具在/usr/sbin/下创建软链
  创建update-alternatives工具在/usr/sbin/下创建软链(在4台机器上一起执行)(4台机器都要执行)
      4.10.2、打开浏览器,输入 http://m1.idoall.org:7180/ 开始安装
  #使用浏览器打开能够看到登录页面,那么恭喜你成功了。 http://m1.idoall.org:7180/(帐号和密码都是admin)
  #我们来安装Cloudera Express,之前官方有说这个版本有50个节点的限制,在CDH5.1.0版本也有看到,在写本文记录时的5.1.2版本不知道为什么我在安装的时候并未看到。
  #选择指定的CDH集群,可以添加多台机器,也可以使用IP匹配,输入完机器名称后,点search按钮,我输入的内容为"m1.idoall.org"
  #CDH会根据你给出的内容,搜索到机器
  #选择存储方式,我们使用Parcel方式安装。系统会自动下载Parcel
  #是否需要加密,如果你不考虑这些,可以不用选择这个复选框
  #提供SSH登录凭据,这里建议使用root帐号,避免一些新同学,对其他帐号的权限设置不完整,导致后面安装出现错误。如何设置4台机器之前SSH免密码登录,就不在这里介绍了,如果不会,可以去搜索下。在这之前4台机器请配置好SSH免密码登录。
  #安装过程中的状态,会下载CDH使用的包,可能会慢一些,要有耐心~~~~
  #如果在安装过程中出现了以下错误&ImportError: No module named _io&,或者如下图中的提示,不用担心,这是一个已知问题。这是因为CDH5使用的Python版本问题。执行完下面的脚本后,点击重试就可以顺利的完成安装了。如果出现打不开CM Agent的log日志提示,那很可能是你的Host配置有问题,请参考本文最初写的Host配置。
  #安装完成了
  #继续安装选定 Parcel  #如果你想要提高速度,可以按以下方法离线安装    1、使用迅雷到和mainfest.json文件    2、上传到/opt/cloudera/parcel-repo目录中,同时创建一个.sha文件,内容为"a492e4b6decef2bf613ecb2980dfd37",这个值可以在下载目录中的manifest.json文件中找到。然后看相对应的json-&parcelName同一级的hash值。&    3、下载、、    4、参考步骤2,创建相应的.sha文件,.sha文件中的内容如下:
root@m1:/opt/cloudera/parcel-repo
root@m1:/opt/cloudera/parcel-repo
root@m1:/opt/cloudera/parcel-repo
root@m1:/opt/cloudera/parcel-repo
    5、设置文件的使用权限
root@m1:/opt/cloudera/parcel-repo
root@m1:/opt/cloudera/parcel-repo
    6、查看下载后的文件列表
root@m1:/opt/cloudera/parcel-repo
total 1709280
drwxrwxrwx 2 cloudera-scm cloudera-scm 4096 Sep 1 01:16 ./
drwxr-xr-x 6 root root 4096 Sep 1 01:51 ../
-rwxrwxrwx 1 cloudera-scm cloudera-scm
Aug 31 21:37 ACCUMULO-1.6.0-1.cdh5.1.0.p0.51-precise.parcel*
-rwxrwxrwx 1 cloudera-scm cloudera-scm 41 Sep 1 01:15 ACCUMULO-1.6.0-1.cdh5.1.0.p0.51-precise.parcel.sha*
-rwxrwxrwx 1 cloudera-scm cloudera-scm
Sep 1 00:27 CDH-5.1.2-1.cdh5.1.2.p0.3-precise.parcel*
-rwxrwxrwx 1 cloudera-scm cloudera-scm 41 Sep 1 01:15 CDH-5.1.2-1.cdh5.1.2.p0.3-precise.parcel.sha*
-rwxrwxrwx 1 cloudera-scm cloudera-scm 41602 Sep 1 01:13 SQOOP_NETEZZA_CONNECTOR-1.2c5-precise.parcel*
-rwxrwxrwx 1 cloudera-scm cloudera-scm 41 Sep 1 01:16 SQOOP_NETEZZA_CONNECTOR-1.2c5-precise.parcel.sha*
-rwxrwxrwx 1 cloudera-scm cloudera-scm 9499051 Sep 1 01:13 SQOOP_TERADATA_CONNECTOR-1.2c5-precise.parcel*
-rwxrwxrwx 1 cloudera-scm cloudera-scm 41 Sep 1 01:16 SQOOP_TERADATA_CONNECTOR-1.2c5-precise.parcel.sha*
  #主机正确性检查,和当前m1.idoall.org的CDH5.12组件版本汇总。
  #选择要安装的集群服务,我们来安装ZooKeeper。如下图选择
  #自定义角色分配&
  #数据库设置,我们输入之前在MySql中(4.7)创建的Activity Monitor使用的数据库amon以及用户名、密码,点击测试链接,可以看到成功信息。
  #审核更改,如果你没有邮件要配置,可以什么都不用输入
  #升级完成,并且成功启动ZooKeeper、CM Service服务。
  #升级完成,就可以进入主页
  #查看m1.idoall.org的运行状态
  #最后我们恢复ubuntu 14.04版本信息
root@cm1:~
root@cm1:~
  到此为主,在Ubuntu14.04下使用apt-get方式,安装CDH5.12已经成功。并且支持中文,后面有什么服务或者机器要添加的,可以自己来做了。如果你还不会,可以学习王自如一样找老罗现场直播飙口才去了。。。
  5、FAQ
    5.1、过程中如果出现&Incorrect string value: ‘\x&的提示,是和数据库的编码有关,在mysql中执行以下语句:
alter table CLIENT_CONFIGS convert to character set utf8;
alter table CLUSTERS convert to character set utf8;
alter table CLUSTERS_AUD convert to character set utf8;
alter table CLUSTER_ACTIVATED_RELEASES convert to character set utf8;
alter table CLUSTER_ACTIVATED_RELEASES_AUD convert to character set utf8;
alter table CLUSTER_MANAGED_RELEASES convert to character set utf8;
alter table CLUSTER_UNDISTRIBUTED_RELEASES convert to character set utf8;
alter table CM_PEERS convert to character set utf8;
alter table CM_VERSION convert to character set utf8;
alter table COMMANDS convert to character set utf8;
alter table COMMAND_SCHEDULES convert to character set utf8;
alter table CONFIGS convert to character set utf8;
alter table CONFIGS_AUD convert to character set utf8;
alter table CONFIG_CONTAINERS convert to character set utf8;
alter table CREDENTIALS convert to character set utf8;
alter table GLOBAL_SETTINGS convert to character set utf8;
alter table HOSTS convert to character set utf8;
alter table HOSTS_AUD convert to character set utf8;
alter table HOST_TEMPLATES convert to character set utf8;
alter table HOST_TEMPLATE_TO_ROLE_CONF_GRP convert to character set utf8;
alter table METRICS convert to character set utf8;
alter table PARCELS convert to character set utf8;
alter table PARCEL_COMPONENTS convert to character set utf8;
alter table PROCESSES convert to character set utf8;
alter table PROCESS_ACTIVE_RELEASES convert to character set utf8;
alter table RELEASES convert to character set utf8;
alter table RELEASES_AUD convert to character set utf8;
alter table REVISIONS convert to character set utf8;
alter table ROLES convert to character set utf8;
alter table ROLES_AUD convert to character set utf8;
alter table ROLE_CONFIG_GROUPS convert to character set utf8;
alter table ROLE_CONFIG_GROUPS_AUD convert to character set utf8;
alter table ROLE_STALENESS_STATUS convert to character set utf8;
alter table SCHEMA_VERSION convert to character set utf8;
alter table SERVICES convert to character set utf8;
alter table SERVICES_AUD convert to character set utf8;
alter table SNAPSHOT_POLICIES convert to character set utf8;
alter table USERS convert to character set utf8;
alter table USER_ROLES convert to character set utf8;
alter table USER_SETTINGS convert to character set utf8;
标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&原文:/lion.net/p/3950619.html
教程昨日排行
&&国之画&&&& &&&&&&
&& &&&&&&&&&&&&&&
鲁ICP备号-4
打开技术之扣,分享程序人生!

我要回帖

更多关于 spark mapreduce 区别 的文章

 

随机推荐