- 下载Hadoop安装包,https://hadoop.apache.org/releases.html,点击binary即可,下载下来的是归档压缩文件,直接解压
- 环境配置,
- 常见错误,如果Java安装文件夹是默认的C盘文件夹,会因为权限不够无法访问,此时可以将D:Hadoophadoop-2.10.1etchadoophadoop-env.cmd里的Java环境变量改掉
- bin文件夹下要添加winutils.exe,不然spark项目能编译成功但会报错
- 主要 spark依赖
org.apache.spark spark-core_2.112.3.2
- 日志 log4j依赖
log4j log4j1.2.17
- 指定编译环境插件
maven-compiler-plugin 2.3.2 1.8 UTF-8
- 打包插件
maven-assembly-plugin jar-with-dependencies make-assembly package assembly
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)