阿里云开源大数据内核团队招聘人才

构建分布式大数据云服务,并且参与到社区建设。深入源码内核改进优化开源项目,解决源码级别问题。

需要注意的是:不是使用组件,是研发hadoop、spark、hbase、flink等组件,深入修改内核,需要较强的分布式理论及编码能力。

岗位要求:

1、计算机或相关专业本科以上学历(3年以上工作经验)
2、精通C++/Java/Scala程序开发(至少一种),熟悉Linux/Unix开发环境
3、熟悉常用开源分布式系统,精通Hadoop/Spark/HBase/ES之一源代码尤佳
4、熟悉数据库或者数据仓库理论
5、具有良好的沟通协作能力,具有较强的分享意愿
6、高抗压能力,故障面前临危不乱,困难面前勇于挑战

具体事项:
1、研究开源大数据组件,改进性能、功能,提出创新性点,反馈给社区,成为领域专家。
2、解决各种客户hadoop、spark、hbase、flink等疑难杂症
3、宣传技术,编写博客,在内外部分享大数据技术,成为分布式领域权威专家

可以看下这个:
分布式面试指南:https://yq.aliyun.com/articles/67000
hadoop学习之路:https://yq.aliyun.com/articles/28400
如果已经有一定的火候,果断联系我。

面试是:面试+笔试哦!加油!

欢迎联系 阿里云封神:dragon.caol@alibaba-inc.com
长期有效!!!

社群

技术交流钉钉大群 阿里云 HBase+Spark社区 【强烈推荐!】 群内每周进行群直播技术分享及问答

上一篇:java8 使用 lamda 表达式 完成 map reduce


下一篇:开源大数据技术社区召集令