SAP Analytics Cloud导入数据的规模限制

SAP Analytics Cloud部署在SAP Cloud Platform的Neo或者CloudFoundry环境上:

SAP官方帮助文档:

https://help.sap.com/viewer/00f68c2e08b941f081002fd3691d86a7/release/en-US/11b4e5ff76eb4747bc255d7037be1f01.html

查看System Requirements and Technical Prerequisites

在Live connection的场景里,Analytics Cloud只存储metadata. SAP Analytics Cloud stores queries for building the stories, measure names, columns names, filter values, and so on. Basically, the metadata lets SAP Analytics Cloud rebuild the query. But none of the actual data, not even the query results or part of the results, such as totals, are saved to SAP Analytics Cloud. Metadata is transferred to your browser and encrypted in memory.

在System Sizing,Tuning and Limits里有数据导入相关的大小限制说明:

Excel最大支持200MB,CSV文件2GB;

Model和Story最多800000行,datasets 1000000行。

Model和Story最多支持100列,Datasets支持1000列。

官方文档:https://help.sap.com/viewer/00f68c2e08b941f081002fd3691d86a7/release/en-US/5f61b6509a5e4d499e8cb9685f32db73.html

要获取更多Jerry的原创文章,请关注公众号"汪子熙":

原文地址:https://www.cnblogs.com/sap-jerry/p/12591561.html

时间: 2024-08-30 14:37:39

SAP Analytics Cloud导入数据的规模限制的相关文章

领先分析机构的市场研究发现,96% 的受访者会推荐 SAP Analytics Cloud

SAP (NYSE: SAP) 日前宣布,SAP Analytics Cloud(分析云)解决方案在行业分析机构 BARC 开展的 The BI Survey 18 调查中名列前茅.该调查面向全球各大 BI 供应商,针对业务价值.客户满意度.云商业智能和创新等领域进行了评比.根据报告显示,在五个同类评比小组中,SAP 共斩获 23 项第一和 44 项领先排名. 2018 年 10 月 16 日-18 日,DSAG(即 SAP 用户组)大会在莱比锡举行, SAP 在会上发布了这一消息. "The

SAP Analytics Cloud里的Smart Insight功能介绍

SAP官方帮助文档: https://www.sapanalytics.cloud/resources-smart-discovery/ SAP Analytics Cloud的Smart Discovery功能,底层基于机器学习技术,帮助用户对其业务数据进行挖掘,以作出更快更有效的商业决策. 新建一个Story,选择Run a smart discovery: 选择一个之前创建好的Model: 将模型里的measure设置成挖掘设置(discovery settings)里问题"I want

SAP Analytics Cloud关于Smart Predict功能的说明

从open SAP的课程能看出,SAP Analytics Cloud也是部署在SAP Cloud Platform上: https://open.sap.com/courses/cp6 关于Smart Predict的Note: https://launchpad.support.sap.com/#/notes/2661746 A key strategic goal of SAP Analytics Cloud (SAC) is to bring BI, Planning and Predi

为SAP Analytics Cloud的story创建持久化页面

在SAP Analytics Cloud Story标签页里新建一个页面,或者选中默认的page,选择Rename进行重命名: 例如改成Jerry first page. 工具栏里点击如下按钮,插入一个新的Table: 为table添加Measure/Dimension: 添加AccountID到table之后的效果如下图: 更改table的风格,从Template下拉菜单里选择Report-Styling: 将这个制作好的表格,通过菜单项Pin to Home添加到Home页面,方便以后使用:

SAP Marketing Cloud的Contact导入配置和数据合并原理

SAP很多系统的主数据都支持从外部系统导入,SAP Marketing Cloud也是如此,contact主数据可以来自Hybris Commerce,CRM,ERP或者Twitter,Facebook等社交媒体.来自不同渠道的contact可能对应的是真实世界里同一个人,那么就存在一个过程,该过程的逻辑是将不同渠道的contact数据进行整合,拼凑出一个包含完整信息的contact主数据存储到Marketing Cloud系统里,这个拼凑的过程称之为合并(merge),拼凑后形成的完整Cont

Data Lake Analytics,大数据的ETL神器!

0. Data Lake Analytics(简称DLA)介绍 数据湖(Data Lake)是时下大数据行业热门的概念:https://en.wikipedia.org/wiki/Data_lake.基于数据湖做分析,可以不用做任何ETL.数据搬迁等前置过程,实现跨各种异构数据源进行大数据关联分析,从而极大的节省成本和提升用户体验.关于Data Lake的概念. 终于,阿里云现在也有了自己的数据湖分析产品:https://www.aliyun.com/product/datalakeanalyt

mysql导入数据load data infile用法整理

有时候我们需要将大量数据批量写入数据库,直接使用程序语言和Sql写入往往很耗时间,其中有一种方案就是使用MySql Load data infile导入文件的形式导入数据,这样可大大缩短数据导入时间. 假如是从MySql客户端调用,将客户端的文件导入,则需要使用 load local data infile. LOAD DATA INFILE 语句以很高的速度从一个文本文件中读取行到一个表中.文件名必须是一个文字字符串. 1,开启load local data infile. 假如是Linux下

oracle sqlldr导入数据

背景 900W数据的TXT文本,文件内容各字段以"|"分隔,使用nevicat导入太慢 解决办法 使用sqlldr导入数据, 1)建立配置文件test.ctl [[email protected] ~]$ cat test.ctlload datainfile 'data.txt' into table CMCCfields terminated by "|"(id,phone,service_id,time,cmcc_num,cmcc_s) 解释:data.txt

DB2导入数据时乱码问题

1.由于导入import导入数据时乱码,一直找不到解决办法,于是就用load导入 LOAD后,发现某些表检查挂起( 原因码为 "1",所以不允许操作 SQLSTATE=57016 ) 解决办法:set integrity for xxxxxx immediate checked 2.表锁定(原因码为7) 解决办法:reorg table xxxx 3.去重 select distinct a.column from table1 as a inner join table2 as b