InfoSphere CDC 企业传统数据到大数据集成的加速器


发布者 chenjunji123456  发布时间 1481163562853
关键字 分享 

我们常常会思考什么样的数据才是大数据,只有数据量大才能真正称之为大数据吗?其实不然,大数据的特征应该包括数量、速度,多样性和精准性这四个方面,也就是通常所说的4个V: Volume,Velocity,Variety 和Veracity。如下图所示:

因此,数量大小只是描述大数据的其中一个维度,今天,我们不妨换个思路来聊聊大数据的另一个重要特征:Velocity(速度),看看如何将传统数据库中的数据快速、实时、准确地应用到大数据平台。快速获取,快速分析,快速应用,快速实现,从而帮助企业提升自身的竞争力并创造巨大的商业价值。

IBM 大数据产品介绍

InfoSphere Change Data Capture(以下简称CDC)用于捕获源端交易数据库如DB2,Oracle的数据变化,并实时复制到目标数据库、消息队列、以及ETL解决方案(例如IBM InfoSphere DataStage)。

InfoSphere BigInsights由Hadoop分布式文件系统(HDFS)以及Pig,Hive,HBase和ZooKeeper等Hadoop生态系统子项目构成,用于分析和展现基于Apache Hadoop的海量数据。 接下来,我们将通过一个智能电表的应用案例来演示CDC如何将实时的增量数据复制到InfoSphere BigInsights的HDFS中。

系统架构

在下图所示的系统架构中,源端各种异构平台的传统数据库所产生的变化数据通过CDC的复制引擎源源不断的流向目标端 InfoSphere BigInsights 大数据平台,所有关系型结构化数据的实时更新都会以文件的形式或格式存储在HDFS文件系统中。

应用场景:智能电表系统

某公共事业公司利用智能仪表采集客户日常使用水,电,煤气等数据信息,这些信息的数据量庞大且实时变化快,通过分析这些仪表数据能及时了解客户的使用模式和习惯,以及费用开销。比如说该公司通过测量高峰期的用电量,能够收取更多的费用,能够设置客户用电的使用上限,可以创建激励机制让客户在特殊时段减少用电量等等。

该公司通过构建InfoSphere CDC + InfoSphere BigInsights的智能电表系统来实现以上这些业务功能,即CDC捕获电表系统的变化数据,并实时复制到BigInsights的HDFS文件系统,接着BigInsights对传送过来的实时海量数据进行复杂计算和模型分析,从而及时准确地响应了以上业务需求。

配置CDC到BigInsights(HDFS)的数据复制

安装并初始化InfoSphere BigInsights运行环境

1)首先,需要完成InfoSphere BigInsights的安装,安装完成后,Hadoop集群环境也随之搭建好了。然后,我们要确认环境变量是否设置正确

* CLASSPATH是否指向包含Hadoop核心Jar包的路径。

* HADOOP_CONF_DIR是否指向包含Hadoop配置文件的路径。

如果以上环境变量没有设置,我们也可以运行BigInsights自带的脚本程序biginsights-env.sh进行自动化设置,该脚本所在目录为

BigInsights_install_dir/conf.

2)缺省情况下,环境变量CLASSPATH仅包含Hadoop的核心JAR包hadoop-core-1.0.3.jar,我们还需添加以下JAR包到CLASSPATH中:

* commons-configuration-1.6.jar

* commons-logging-1.1.1.jar

* commons-lang-2.4.jar

这些JAR包路径为:BigInsights_install_dir/IHC/lib directory/

2. 启动InfoSphere BigInsights Hadoop集群中的HDFS组件

InfoSphere BigInsights本身已集成了很多Hadoop组件,例如Apache MapReduce, HDFS, Hive, Catalog, HBase, Oozie等等,这些服务可以通过InfoSphere BigInsights控制台或命令行启动。例如在Web浏览器中打开InfoSphere BigInsights管理控制台:

http://server:8080/data/html/index.html#redirect-welcome

然后,在管理控制台中选择并启动HDFS服务.

3. 安装InfoSphere CDC for InfoSphere BigInsights,

并在BigInsights中创建HDFS目录

在InfoSphere BigInsights管理控制台中选中“Files”标签.

如下图所示,创建HDFS目录,用于写入CDC从源端数据库中捕获并复制过来的增量数据.

创建CDC实例

在CDC实例中创建预订(Subscription),并将源端数据库的表映射到刚刚已创建的HDFS目录中的某个文件。HDFS目录格式为:

hdfs://your-server:9000/目录名称/文件名

启动CDC复制数据并查看目标端所生成的HDFS文件

经过以上步骤,我们已完成了BigInsights和CDC的安装及配置,接下来便可启动CDC预订开始数据的实时复制了

当我们回到BigInsights的管理控制台,选中“File”标签,可以观察到在指定的HDFS目录路径下已生成从源端复制过来的增量数据。

可能有人会问,InfoSphere CDC 难道只能和IBM自家的大数据平台BigInsights集成吗?当然不是,CDC能提供对各大Hadoop厂商的广泛支持,例如:HortonWorks Data Platform(HDP),Cloudera CDH,Apache Hadoop等。

如果大家感兴趣的话,欢迎与我们联系!

慧都控件网年终促销最后一波,全场6折起,豪礼抢不停>>>

截止时间:2016年12月31日

更多大数据与分析相关行业资讯、解决方案、案例、教程等请点击查看>>>

详情请咨询在线客服

客服热线:023-66090381









  开源的 OurJS
OurJS开源博客已经迁移到 OnceOA 平台。

  关注我们
扫一扫即可关注我们:
OnceJS

OnceOA