任何人都可以帮我解决这个问题。
我正在尝试通过spark shell执行Spark Job。
首先,我按照以下步骤为我的主程序创建了一个Jar文件:
1.文件>项目结构。
2.选择Tab" Artifacts"。
3.单击窗口顶部附近的绿色加号按钮。
4.从添加下拉菜单中选择JAR。选择"来自具有依赖关系的模块"
5.选择主要课程。
6.单选按钮应选择"提取到目标JAR。"按OK。
7.勾选方框" Build on make"
8.按“应用”,然后单击“确定”。
9.从主菜单中,选择构建下拉列表。
10.选择选项构建工件。
Jar文件名:jar_name
。
班级文件名:ClassDriver
。
用于在Spark shell中提交Job的命令:
spark-submit --class com.xxx.ClassDriver jar_name
得到错误:
java.lang.ClassNotFoundException: com.xxx.ClassDriver
任何人都可以帮我解决这个问题。