您是否在考虑将数据从实验环境复制到生产环境,或者实现跨不同厂商的不同Hadoop发行版本之间复制数据,或者为了保证SLA而需要建设Hadoop异地容灾,或者需要实现Hadoop混合云?如果您觉得实现这类的需求非常困难、复杂、昂贵和耗时,那您应该尝试IBM Big Replicate。Big Replicate高性能的企业级复制技术能够为您解决这些问题。
Big Replicate是什么?
从基本意义上来讲,Big Replicate是一个或多个,部署在你想复制数据的集群上的代理服务器。作为代理服务器,它提供了一个抽象层,使我们远离对底层集群分布和版本的依赖,而只要集群支持Hadoop兼容的文件系统即可。API客户端应用程序连接的Fusion(WANdisco的产品,Big Replicate的核心模块)而不是HDFS,因此,它能统一了结合不同分布、不同版本、本地与云端存储的Hadoop集群。Big Replicate为跨任意距离的集群提供了单一虚拟命名空间,从而打破信息孤岛,实现Hadoop集群之间的自由、灵活数据复制。
实际上,Big Replicate的复制功能不限于Hadoop,它能跨云存储、本地或NFS文件系统之间复制数据。
Big Replicate使用了WANdisco的专利复制引擎,它实现:
- 活动事务复制,并在任何距离任意数量的集群间保证数据一致性。
- 在一组集群和不同位置的文件夹基础上进行选择性复制。
- 几乎为零的RTO /RPO。
Big Replicate能解决哪些问题?
IBM Big Replicate帮助您实现跨不同环境、不同发行版本、混合云之间的Hadoop数据移动。它实现了:
- 100%可用性 - 总是处于运行状态,超过大多数SLA要求。
- 降低成本 - Standby是Active完全可用的,而非Read-only。
- 降低复杂性 - 简化备份、恢复、迁移和扩容操作。
- 连接云的桥梁 - 无停机时间实现迁移到云,或者实现混合云。
- 加快数据访问 - 实时数据复制,无论您在哪里需要。
对 Big Replicate 感兴趣的朋友不妨来试一试吧,下载地址如下:
http://bigdata.evget.com/product/444.html
更多大数据与分析相关行业资讯、解决方案、案例、教程等请点击查看>>>
详情请咨询在线客服!
客服热线:023-66090381