【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合

MaxCompute大家都不陌生,之前产品名称叫ODPS,之后随国际化而更名。从支持阿里集团内部99%数据业务到计算能力对外输出,帮助*、互联网公司、金融等进行大数据项目服务,使得数据变现。很多开发者都会把MaxCompute和开源社区Hadoop、hive进行比较,此处不做过多评论,各有优势。但是不得不说MaxCompute这几年在生态上向前走了一大步。

关于 MaxCompute2.0 对开源系统的支持与融合 的整体介绍及团队规划,详见文档

【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合
最近,我也针对MaxCompute在生态融合上也进行了一些研究和拜读,因为现在资料还比较零散,就把自己在过程中遇到的好材料统一为大家梳理如下,包括SDK、JDBC等。

MaxCompute SDK

首先我们先来看SDK,想必很多有能力的互联网公司都有大量的个性化需求,都会对SDK/API有一些需求,比如小黄车这样的体量大的客户,就基于MaxCompute SDK做了大量的应用。那具体SDK包括Java、Python、R以及PHP(PHP为社区提供,并非阿里云官方出品,但都可以满足大部分需求)。如图所示:
【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合

【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合
更大强大的功能,大家可以期待下团队将在北京云栖大会对外正式公测的python UDF,这将大大的提高python开发者对MaxCompute的开发效率和功能。
  • R SDK:RODPS也较大满足开发者使用R做数据分析的需求,具体安装及使用可以详见 云栖社区博文
【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合
  • PHP SDK:PHP SDK并非MaxCompute团队官方出品,由社区招募完成开发工作,具体有PHP需求的同学也可以参考PHP SDK文档,可以满足PHP开发的大部分需求。

MaxCompute JDBC 2.2 发布说明

对接已有软件并提供标准JDBC编程接口,MaxCompute JDBC 2.2正式版已于2017年2月24日正式发布。
【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合
【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合
  1. 通过Apache Zeppelin 快速实现数据可视化
  2. 借力QlikView玩转数据分析

Hive Proxy

提供Hive Thrift协议兼容接口,对接Hive社区已有的工具。Hive Proxy 部署在客户端,将 Hive 的 thrift 请求转换成 MaxCompute 的 Restful API 请求,可以用来直接对接诸如 Tableau、Qlik 这样不直接支持 JDBC 的 BI 工具,或者 HPL 这样的 Hive 组件,详见 博文
【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合
  • 示例1:复用Hive ODBC实现Tableau到MaxCompute的连通
  • 示例2:复用Hive JDBC实现Beeline到MaxCompute的连通

ETL tool-数据上云工具

关于Logstash将日志采集MaxCompute,然后做数据分析有详细step by step 文档,点击进入

【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合Spark on ODPS、ElasticSearch on ODPS等在专有云和阿里集团内成熟应用,公共云上的开发者可能要耐心等待一段时间。

【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合【干货索引】阿里云大数据计算服务MaxCompute与生态系统的融合
上一篇:Java程序员从笨鸟到菜鸟之(五十二)细谈Hibernate(三)Hibernate常用API详解及源码分析--csdn 曹胜欢


下一篇:Docker企业版安装指南