阿里云ACP认证考试细则须知与考题内容学习方法分享

阿里云大数据专业认证介绍:

  阿里云大数据专业认证(ACP 级-Alibaba Cloud CertificationProfessional)是面向使用阿里云大数据产品的架构、开发、运维类人员的专业技术认证,主要涉及阿里云大数据类的几款核心产品,包括大数据计算服务MaxCompute、数据工场 DataWorks(原大数据开发套件 DataIDE)、数据集成、QuickBI、机器学习 PAI 等。通过该技术认证可以有效证明该认证人员具备以下能力:

  ● 具备大数据的存储、处理、分析以及展现的基础知识

  ● 能够根据企业的业务需求,基于阿里云的产品制定有效的技术解决方案和企业最佳实践

  ● 能够熟练的使用阿里云的大数据计算服务 MaxCompute、数据工场DataWorks、数据集成、QuickBI 以及机器学习 PAI 等产品

  ● 能够诊断基于阿里云大数据产品构建的业务系统在运行中出现的常见问题并找到相应的解决方案

  阿里云ACP认证考试细则须知与考题内容学习方法分享

  阿里云认证体系:

  助理工程师(ACA),Alibaba Cloud Certified Associate获得此认证,证明您可以进行阿里云基础产品的使用和管理;

  认证工程师(ACP),Alibaba Cloud Certified Professional获得此认证,证明您可以基于阿里云产品解决企业的基本业务问题;

  认证高级工程师(ACE),Alibaba Cloud Certified Expert获得此认证,证明您可以基于阿里云产品进行架构设计并解决业务发展中的主要问题。

  ACP认证目前又按专业方向分四种:

  云计算(主要对应阿里云基础架构产品)、

  大数据(主要对应阿里云大数据系列产品)、

  云安全(主要对应阿里云云盾系列产品)、

  企业级互联网架构(主要对应阿里云企业级中间件系列产品)。

  目前主流的认证是阿里云云计算ACP认证,适用范围最广、考试难度较小,是面向使用阿里云云计算产品的架构、开发、运维人员的专业技术认证。大数据、安全、企业级互联网架构,这三个各侧重于一个方向,适合该方向的从业者考取。

  阿里云大数据专业认证所需具备的知识:

  ● 熟悉阿里云大数据相关产品的基本概念,包括大数据计算服务MaxCompute、数据工场 DataWorks(原大数据开发套件DataIDE)、数据集成、QuickBI、机器学习 PAI 等(下同)

  ● 了解阿里云大数据相关产品的特点、应用场景以及与其他云产品配合使用,包括表格存储(Table Store)、云数据库 RDS、分布式关系型数据库 DRDS、分析型数据库(Analytic DB)、对象存储 OSS 等,能根据实际业务场景进行基础的架构设计

  ● 掌握阿里云大数据的相关产品的基本操作,包括通过管理控制台、客户端等进行交互式操作,通过产品提供的方式(如 SQL、MapReduce、UDF、API 或 SDK 等)进行数据处理

  ● 了解各产品的最佳使用实践,能识别使用过程中常见的问题,且能给出合适的解决方案

  通用 IT 的知识:

  ● 了解大数据相关的基础概念以及相关知识,如分布式存储、分布式计算、数据仓库、数据分析等

  ● 了解关系型数据库的基本概念和常用技术,包括事务、索引、OLTP、建模方法、SQL(DDL、DML)等

  ● 具备使用关系型数据库或者其他产品进行数据处理的经验

  ● 了解数据仓库的基本概念和常用技术,包括维度、事实表、即席查询、数据挖掘、OLAP、星型模型、ETL 等

  ● 具备一定的编程经验,能使用至少一种常见的编程语言如 Java、Python 等进行简单的程序开发

  ● 了解软件开发的生命周期,了解项目的建设或者项目管理

  阿里云大数据专业认证相关的学习方法、学习资料及培训课程:

  建议的学习方法:

  ● 强烈推荐开通阿里云大数据相关的产品并进行实际的操作(阿里云ACP认证考试及开通阿里云产品是需要费用的)

  ● 结合阿里云官网的文档同步学习(https://help.aliyun.com/)

  更多学习途径:

  ● 参加阿里云官方提供的面授培训课程,可以帮助您快速的学习阿里云弹性计算相关产品的概念、使用、操作及解决方案。相关的课程如下:

  (https://www.aliyun.com/support/courses)

  ● 通过阿里云的自助实验平台云中沙箱进行在线的动手实验练习

  (https://edu.aliyun.com/lab)

  ● 通过阿里云官网的论坛进行学习、提问和交流

  (https://bbs.aliyun.com/)

  认证考试形式和试卷结构:

  一、试卷满分及考试时间:试卷满分为 100 分,考试时间为 120 分钟

  二、考试形式:线下上机考试

  三、答题方式:闭卷

  四、试卷内容

  产品名称,试题占比:

  大数据计算服务Maxcompute:55%;数据工场 DataWorks:20%;数据集成:10%;Quick BI:5%;机器学习 PAI:5%;和其他云产品配合的应用及架构:5%。

  五、试卷题型

  题目类型、题目数量、分值:单选题50 题,每题 1 分;多选题30 题,每题 1 分;判断题20 题,每题 1 分。

  六、试卷内容范围

  大数据计算服务考试内容:

  熟悉大数据计算服务基本概念,包括项目空间、表、分区、资源、任务等

  了解大数据计算服务的组成架构和各组成部分功能

  掌握大数据计算服务的特点、优势以及适用场景

  掌握大数据计算服务的连接和使用方式,包括使用客户端、管理控制台、JavaSDK 等

  掌握大数据计算服务的数据上传和下载,可以熟练的使用Tunnel 命令行工具,了解 Tunnel SDK

  掌握大数据计算服务的 SQL命令,包括 DDL、DML 以及常见内置函数

  熟悉大数据计算服务的用户自定义函数,包括 UDF、UDAF以及 UDTF,可以编写简单的自定义函数

  熟悉大数据计算服务的 MapReduce编程框架,可以配置Eclipse 的环境,编写简单的 MR 程序

  了解大数据计算服务的 Graph编程框架,包括基本概念、处理流程等,可以编写简单的 Graph 程序

  了解大数据计算服务 DataHub的相关概念和使用方法

  熟悉大数据计算服务的安全和权限管理的概念和实际操作, 包括用户、角色、授权(ACL&Policy)、项目空间保护、例外以及安全等级等

  数据工场 DataWorks考试内容:

  熟悉 DataWorks的基本功能模块,包括数据开发、数据管理、运维中心、组织管理以及项目管理等

  了解 DataWorks的基本特点,包括角色隔离、环境隔离等

  可以使用项目管理和组织管理模块搭建环境

  熟练使用 DataWorks的数据开发模块进行设计开发,包括建表、任务开发、资源上传、数据上传、新增函数等

  熟练使用 DataWorks的数据开发模块进行工作流任务和节点任务的开发设计,并且可以配置合适的依赖和周期性调度

  熟练使用数据管理模块进行数据管理,包括血缘分析、表的使用权限申请和授权等

  对于使用过程中出现的问题,能够识别、定位,对其中基本的问题能进行修复

  数据集成考试内容:

  了解数据集成的基本概念和工作流程

  熟练使用数据集成进行多种场景下的数据同步,可以从不同的数据源同步数据到大数据计算服务

  了解数据集成中的 DataX组件,包括概念、功能以及实际使用

  了解并能正确使用数据集成中的字段映射、常量使用、变量使用、导入导出规则等

  了解数据集成的最佳实践,比如切分键配置等

  能够对使用过程中出现的常见问题进行排查,并能解决其中的基本问题

  对于数据集成中的脏数据能够进行正确的处理

  QuickBI 考试内容:

  了解 QuickBI 的产品特点和使用场景

  掌握服务开通、数据源配置、数据分析等基本操作

  了解各种常见统计图表的适用场景和使用方法

  能够使用 Quick BI 进行仪表盘设计、报表门户设计

  ● 机器学习 PAI 考试内容:

  了解机器学习的基本知识

  掌握常见的机器学习算法

  能够使用机器学习 PAI 对数据集进行数据处理和探索式统计分析

  能够使用机器学习 PAI 对数据集进行聚类、分类等数据分析

  能够使用 DataWorks 部署应用机器学习中的模型

  ● 应用和架构考试内容:

  了解其他相关云产品的特点和应用场景,包括云数据库RDS、分布式关系型数据库 DRDS、表格存储(Table

  Store)、分析型数据库(Analytic DB)、对象存储 OSS 等

  了解大数据计算服务、数据工场 DataWorks、数据集成、QuickBI 及机器学习 PAI 等如何与其他相关产品配合使用

  能根据实际的应用场景,结合阿里云产品的特点设计合理的基础架构

上一篇:HTML基础9--兼容性问题


下一篇:kali学习日记第一篇 -- 基础知识