目前,数据分析驱动商业的趋势正呼唤着一种新的数据集成方法。
数据分析领域最近经历了一些非常有趣的阶段:物联网(IoT)、来自操作系统的流数据、人工智能(AI)和机器学习(ML)、预测性和预防性类型的分析,以及实时流分析。所有这些技术发展都改变了存储和管理分析数据的方式。而不断涌现的新兴事物——云数据仓库、数据湖、流媒体基础设施等——都是对新型数据分析需求的响应。
对数据分析的需求将会推动数据管理方式的升级,并且推动数据集成与转移方式的改变。传统方法越来越落后于新型集成。
新型的数据集成是指由移动端到云端的发展趋势催生出的更敏锐且更实时的集成,其通过将更多、更大的容量和更多种类的数据移动到数据湖中,以此为数据分析做好准备。这些进步源于新挑战和新技术的交织出现。随着创新步伐加快,以及挑战的不断增加,对数字转型和数据迁移到云的需求已经根本地改变了技术发展的局面。而对于企业而言,由于存在多种形式的数据和多种形式的技术,很难掌握解决数据集成的所有技能。因此,企业会更多地专注于分析数据得到信息,而不是花精力解决数据集成的难题。
Qlik收购Attunity后,我们为解决数据集成问题做出了努力:
- 自动化数据迁移和集成,为DataOps做出卓越贡献。我们致力于加快交付已分析数据的速度,进一步提高对业务变化的响应能力,并将其他数据集整合在一起,以不同方式和不同格式处理数据,以便使用不同的分析技术。
- 关注数据集成方法的现代化。企业会因为各种原因使用多个云环境,因此,借助Attunity,Qlik正在创建来自大型机、SAP应用程序和RDB等系统的数据流。这些系统虽然不是为了流式传输数据而构建,但其不仅支持流式数据,还允许在整个企业中实时使用这些数据。
- 结合Qlik Data Catalyst,构建现代数据集成技术。这样可以让用户能够实时地移动数据、编目数据,从而为用户解决分析数据的挑战,以便他们对数据进行管理。
解决了数据集成的挑战后,下一步我们应该考虑如何利用数据,以更协作的方式增强业务的智能化,从而形成一个完整的DataOps策略。
随着数据向云端迁移以实现流程自动化的趋势发展,数据湖也越来越得到用户认可。其实,将数据放入数据湖很容易,难的是如何从数据湖中获得数据,并重新构建数据、处理数据以便于进一步分析。例如,您可以从大型机获取相应信息并将其导入数据湖,但是如何针对数据给出一些分析性意见呢?如何确保添加到数据湖中的那些频繁更新的文件都可以被重建为可查询的数据集?
我们可以通过一个案例来了解数据分析自动化的实现方式。
案例:苏黎世保险公司
苏黎世保险是Attunity的客户,是早期将自动化应用于其数据库计划的创新者之一。苏黎世公司一直致力于转向现代化数据库,以更好地满足数据分析需求。在以前,传统的企业数据库的运营需要很多工作人员来运营,同时会构建了大量的ETL脚本。而当源系统发生变化时,直到脚本中断或用户发现报告中缺少链接时,企业才会知道这一点。
基于此,苏黎世保险公司意识到他们需要一种比过去更好的方法。最终苏黎世保险公司选择委托Attunity来进行其自动化集成过程的升级,将这个过程实时化,并自动构建数据库。结果就是他们为用户更新和构建新数据集的周期从45天缩短到2天,也可以通过自动化更好地满足业务用户的需求。
总之,在以前用户需要手动完成的一些操作,现在凭借Qlik Data Catalyst和Attunity的强大功能,我们可以将这一过程完全自动化。当我们通过Qlik Data Catalyst把业务端和IT端结合在一起,DataOps的方法可以利用已有目录,通过协作对其进行扩展,以此来帮助用户轻松找到他们所需要的数据。
Attunity和Qlik Data Catalyst在自动化数据集成领域的技术发展,顺应了数据分析驱动商业发展的大势。有了这些工具支持,数据处理的效率将事半功倍。
更多关于数据管理和分析的话题,欢迎登陆慧都科技https://www.evget.com/zt/qlik/index.html与我们沟通交流。
发表评论