冬季实战营第五期:轻松入门学习大数据

冬季实战营第五期:轻松入门学习大数据

2月28日 动手实战-基于EMR离线数据分析

1.远程登录服务器

2. 上传数据到HDFS

本步骤将指导您如何将自建数据上传到HDFS。

1. 执行如下命令,创建HDFS目录。

说明:在LX终端中,粘贴快捷键为SHIFT+CTRL+V。

hdfs dfs -mkdir -p /data/student
2. 上传文件到hadoop文件系统。
a.执行如下命令,创建u.txt文件。
#创建u.txt文件
vim u.txt
b.按 "i" 键进入编辑模式,通过粘贴快捷键(SHIFT+CTRL+V)将下方内容复制到文件中,按"Esc"返回命令模式,输入":wq"保存

说明:第一列表示userid,第二列表示movieid,第三列表示rating,第四列表示unixtime。

196  242  3  881250949
186  302  3  891717742
22  377  1  878887116
244  51  2  880606923
166  346  1  886397596
298  474  4  884182806
115  265  2  881171488
253  465  5  891628467
305  451  3  886324817
6  86  3  883603013
62  257  2  879372434
286  1014  5  879781125
200  222  5  876042340
210  40  3  891035994
224  29  3  888104457
303  785  3  879485318
122  387  5  879270459
194  274  2  879539794
291  1042  4  874834944
234  1184  2  892079237
119  392  4  886176814
167  486  4  892738452
299  144  4  877881320
291  118  2  874833878
308  1  4  887736532
95  546  2  879196566
38  95  5  892430094
102  768  2  883748450
63  277  4  875747401
160  234  5  876861185
50  246  3  877052329
301  98  4  882075827
225  193  4  879539727
290  88  4  880731963
97  194  3  884238860
157  274  4  886890835
181  1081  1  878962623
278  603  5  891295330
276  796  1  874791932
7  32  4  891350932
10  16  4  877888877
284  304  4  885329322
201  979  2  884114233
276  564  3  874791805
287  327  5  875333916
246  201  5  884921594
242  1137  5  879741196
249  241  5  879641194
99  4  5  886519097
178  332  3  882823437
251  100  4  886271884
81  432  2  876535131
260  322  4  890618898
25  181  5  885853415
59  196  5  888205088
72  679  2  880037164
87  384  4  879877127
290  143  5  880474293
42  423  5  881107687
292  515  4  881103977
115  20  3  881171009
20  288  1  879667584
201  219  4  884112673
13  526  3  882141053
246  919  4  884920949
138  26  5  879024232
167  232  1  892738341
60  427  5  883326620
57  304  5  883698581
223  274  4  891550094
189  512  4  893277702
243  15  3  879987440
92  1049  1  890251826
246  416  3  884923047
194  165  4  879546723
241  690  2  887249482
178  248  4  882823954
254  1444  3  886475558
293  5  3  888906576
127  229  5  884364867
225  237  5  879539643
299  229  3  878192429
225  480  5  879540748
276  54  3  874791025
291  144  5  874835091
222  366  4  878183381
267  518  5  878971773
42  403  3  881108684
11  111  4  891903862
95  625  4  888954412
8  338  4  879361873
162  25  4  877635573
87  1016  4  879876194
279  154  5  875296291
145  275  2  885557505
119  1153  5  874781198
62  498  4  879373848
62  382  3  879375537
28  209  4  881961214
135  23  4  879857765
32  294  3  883709863
90  382  5  891383835
286  208  4  877531942
293  685  3  888905170
216  144  4  880234639
166  328  5  886397722
c. 上传文件u.txt到hadoop文件系统。
hdfs dfs -put u.txt /data/student
3. 查看文件。
hdfs dfs -ls /data/student

冬季实战营第五期:轻松入门学习大数据

3. 使用hive创建表

本步骤将指导您如何使用hive创建数据表,并使用hadoop文件系统中的数据加载到hive数据表中。

1. 执行如下命令,登录hive数据库。
hive
2. 创建user表。
CREATE TABLE emrusers (
   userid INT,
   movieid INT,
   rating INT,
   unixtime STRING ) 
  ROW FORMAT DELIMITED 
  FIELDS TERMINATED BY '\t' 
  ;

冬季实战营第五期:轻松入门学习大数据

3. 执行如下命令,从hadoop文件系统加载数据到hive数据表。
 LOAD DATA INPATH '/data/student/u.txt' INTO TABLE emrusers;

4. 对表进行操作

本步骤将指导您如何使用hive对数据表进行查询等操作。

1. 查看5行表数据。
select * from emrusers limit 5;

冬季实战营第五期:轻松入门学习大数据

2. 查询数据表中有多少条数据。
select count(*) from emrusers;

返回结果如下,您可以看到您数据表中一共有多少数据,

冬季实战营第五期:轻松入门学习大数据

3. 查询数据表中评级最高的三个电影。
select movieid,sum(rating) as rat from emrusers group by movieid order by rat desc limit 3;

返回结果如下,您可以看到您数据表中评级最高的三个电影。

冬季实战营第五期:轻松入门学习大数据

3月1日 动手实战-基于Hologres轻松玩转一站式实时仓库

1. 登录Kibana,开启自动创建索引功能

1. 在右侧概览页面Elasticsearch区域中,单击集群管理。
2. 在Elasticsearch实例列表中,单击实例ID
3. 在左侧导航栏,选择配置与管理 > 可视化控制
4. 在Kibana区域中,单击修改配置
5. 开启Kibana私网访问,此变更过程需等待3-5分钟。
6. 返回上级页面,在Kibana区域中,单击公网入口
7. 复制左侧云产品资源列表下的Elasticsearch登录名Elasticsearch登录密码,至Kibana登录页面的账号和密码,单击登录
8. 在登录成功页面,单击Explore on my own

冬季实战营第五期:轻松入门学习大数据

9. 在左侧导航栏,单击Dev Tools(开发工具),再单击Go to work
10. 在Console页签下,执行如下命令,开启阿里云ES实例的自动创建索引功能。
PUT _cluster/settings
{
"persistent": {
"action.auto_create_index": "true" 
}
}

冬季实战营第五期:轻松入门学习大数据

开启成功后,结果如下。

{
  "acknowledged" : true,
  "persistent" : {
    "action" : {
      "auto_create_index" : "true"
    }
  },
  "transient" : { }
}

3月2日 动手实战-推荐系统入门之使用协同过滤实现商品推荐

1.开通机器学习PAI服务

1. 使用您的阿里云账号登录阿里云官网

冬季实战营第五期:轻松入门学习大数据

2. 在顶部的导航栏,依次将鼠标悬停到产品>人工智能处,然后单击机器学习平台PAI。

冬季实战营第五期:轻松入门学习大数据

3. 在机器学习PAI控制台首页,单击立即开通

冬季实战营第五期:轻松入门学习大数据

4. 在服务开通页面,选择要开通的机器学习PAI服务所在的区域,例如华东2(上海),然后单击页面下方的立即购买

冬季实战营第五期:轻松入门学习大数据

5. 在订单确认页面,仔细阅读《机器学习(PAI)服务协议》后,勾选我已阅读并同意,最后单击立即开通

冬季实战营第五期:轻松入门学习大数据

6. 开通成功后,单击前往PAI管理控制台

冬季实战营第五期:轻松入门学习大数据

2.创建PAI Studio项目

1. 在控制台左侧导航栏,单击可视化建模(Studio)

冬季实战营第五期:轻松入门学习大数据

2. 在PAI Studio页面单击创建项目

冬季实战营第五期:轻松入门学习大数据

3. 在右侧弹出的创建项目页面,MaxCompute选择按量付费,填入项目名称,然后单击确定。

PAI Studio底层计算依赖MaxCompute,如果您未开通过当前区域的MaxCompute,请按照页面提示去购买。

a. 单击购买

冬季实战营第五期:轻松入门学习大数据

b. 选择步骤一开通的机器学习PAI服务所在区域,例如华东2(上海),然后单击立即购买

冬季实战营第五期:轻松入门学习大数据

c. 仔细阅读《大数据计算服务MaxCompute(按量计算)服务协议》后,勾选我已阅读并同意,最后单击立即开通

冬季实战营第五期:轻松入门学习大数据

d. 开通成功后返回PAI Studio控制台页面,再次单击创建项目,在创建项目页面选择MaxCompute付费方式为按量付费,然后填入项目名称,最后单击确认

冬季实战营第五期:轻松入门学习大数据

4. 项目创建需要1分钟左右进行初始化,等待项目操作列出现进入机器学习,表示项目创建完成。

冬季实战营第五期:轻松入门学习大数据

3.创建实验

1. 单击左侧导航栏的首页

冬季实战营第五期:轻松入门学习大数据

2. 在模板列表找到【推荐算法】商品推,然后单击从模板创建

冬季实战营第五期:轻松入门学习大数据

3. 在弹出的新建实验框,单击确定

冬季实战营第五期:轻松入门学习大数据

4.查看实验数据

1. 右键单击cf_训练_data节点,然后单击查看数据。

冬季实战营第五期:轻松入门学习大数据

源数据的字段解释如下:

字段名 含义 类型 描述
user_id 用户编号 STRING 购物的用户ID。
item_id 物品编号 STRING 被购买物品的编号。
active_type 购物行为 STRING 0:表示点击。1:表示购买。2:表示收藏。3:表示加入购物车。
active_date 购物时间 STRING 购物发生的时间。

可以看到训练数据为7月份以前的用户购买行为数据。

2. 右键单击cf_结果_data,然后单击查看数据。

冬季实战营第五期:轻松入门学习大数据

可以看到结果数据为7月份以后的用户购买行为数据。

5.运行实验

1. 单击左上角运行。

冬季实战营第五期:轻松入门学习大数据

2. 请耐心等到3~5分钟,实验运行完成如下所示。

冬季实战营第五期:轻松入门学习大数据

6.查看实验结果

1. 右键单击join-1节点,然后单击查看数据

冬季实战营第五期:轻松入门学习大数据

表中similar_item字段为经过协同过滤算法计算得出的该用户购买可能性最大的商品。

2. 单击全表统计-1节点,然后单击查看数据。

冬季实战营第五期:轻松入门学习大数据

表1统计了根据协同过滤算法推荐的商品数量,共有18065个商品可推荐。

3. 单击全表统计-2节点,然后单击查看数据

冬季实战营第五期:轻松入门学习大数据

表2统计了7月份真实购买行为数据中与经过协同过滤算法所推荐的商品的命中数量,可以看到有60个推荐的商品被购买。

上一篇:SpringMVC之分析HandlerMethodArgumentResolver请求对应处理器方法参数的解析过程(一)


下一篇:【推荐】Sql Server 不常见应用之一:获取表的基本信息、字段列表、存储过程参数列表