scala加载spark MLlib等所有相关jar的问题

1、找到spark安装目录

  E:\spackLearn\spark-2.3.3-bin-hadoop2.7\jars

  里面放的是spark的所有依赖jar包

2、从idea里面javalib导入即可调用里面的function

scala加载spark MLlib等所有相关jar的问题

 

上一篇:windows下查找端口占用并杀死进程


下一篇:Spark生态圈简介