服务器_石河子网站建设_免费领

2021-05-04 07:05

为了应对业务数据的爆炸性增长,全球各地的IT部门都在维护大规模的数据处理环境。

为了满足用户对数据可访问性和性能的要求,以及更大的存储和处理能力,这是一个巨大的挑战,通常会受到阻碍

幸运的是,西安大数据,依靠SAP HANA满足其数据处理需求的组织可以求助于SAP HANA data Warehousing Foundation,大数据软件,其中包括SAP data Lifecycle Manager工具。它允许根据操作有用性、性能要求和访问频率将数据移动到最适合该数据的成本和性能特性的存储和处理层。

我的一些同事最近介绍了SAP HANA的数据分层选项。下面是对SAP热数据、热数据和冷数据分层的概述,以及对具有动态分层和扩展节点的热数据分层的深入研究,并详细介绍了冷数据分层。今天的帖子,还有第二个更深入的技术帖子,重点介绍SAP Data Lifecycle Manager以及如何使用它来优化SAP HANA中的内存占用。

SAP Data Lifecycle Manager(DLM)是一种基于web的数据管理工具,它使SAP HANA数据分层过程能够从SAP HANA表中为本机SAP HANA应用程序和SQL数据重新定位过时或不太常用的数据仓库应用程序。DLM在常见的web浏览器环境中运行,并支持许多数据存储目标。它可用于HANA XS Classic和XS Advanced Application Server堆栈。

要将热数据或热数据从SAP HANA重新定位到特定的冷数据存储以提高性能,需要具有所需源和目标数据存储以及重新定位规则的DLM配置文件。数据重定位方向可以从热数据到冷数据、从冷数据到热数据或双向数据,云品,以实现双向移动。

DLM调度程序可用于两个应用服务器堆栈,提供DLM配置文件的即时执行和/或调度。即,基于指定规则执行数据移动。DLM配置文件的无人值守或自动执行通过在单个存储位置管理相关数据,为组织提供更好的查询性能。

DLM还支持多分层方案,并可选择合并两个DLM配置文件。初始DLM概要文件通过将表分区移动到动态分层节点或扩展节点以进行热数据管理来管理单个分区表(多存储或常规列存储表)。第二个DLM概要文件用于管理位于主从节点和/或动态分层或扩展节点(热存储和热存储)上的表分区(和数据)到冷存储目的地的移动。根据使用的应用服务器堆栈,下面列出了所有支持的存储目标:

DLM XS Classic支持以下存储目标,如下图所示:多存储表、扩展节点、扩展表(动态分层)、SAP IQ和SAP SPARK Controller(Hadoop)

图1:DLM XS Classic存储目标

而DLM XS Advanced支持这些存储目标,采购返利,如下图所示:扩展节点、SAP SPARK Controller(Hadoop)和SAP Data Hub冷数据分层(VORA磁盘表)。

图2:DLM XS Advanced存储目标

轻松集成到现有的以HANA为中心的数据模型中,DLM托管了一套完整的设计和运行时数据库工件,这些工件由该工具生成和激活,无需手动数据管理和手动数据访问数据库工件。这里更详细地解释了这些工件,包括:

DLM数据移动规则(编译成HANA存储过程)DLM HANA(列存储)源表DLM数据目标表或结构,用于从一组连接的表中一致地移动数据DLM建模持久化对象(MPO)DLM生成的视图(Database Union All View[GVIEW]和HANA Calculation Scenario或DLM Prunning View[PVIEW]),用于访问分布式数据集

data Lifecycle Manager允许组织定义数据温度分层管理策略,通过将数据从SAP HANA Persistence替换到其他应用程序来优化数据处理性能降低了存储目标的总体拥有成本。对于在SAP HANA本机用例中的使用,DLM提供了一种基于工具的方法来对表上的老化规则建模,以重新定位老化的数据,从而优化SAP HANA中数据的内存占用。

请务必查看我对DLM工件和数据重新定位用例的深入了解,数据分析怎么做,并随时向我发送任何问题或评论。

分享到:
收藏
相关阅读