0

如果以下(工作)spark-submit 命令(用于 Spark 应用程序的 dotnet)正在执行 python 脚本,它是否仍会使用相同的 --conf 设置?给定一个名为 myapp.py 的 python 脚本名称,它没有定义函数(除了main), --class 引用对于 python 脚本来说是什么?

/opt/spark/bin/spark-submit --class org.apache.spark.deploy.dotnet.DotnetRunner \
   --conf "spark.eventLog.enabled=true" \
   --conf "spark.eventLog.dir=file:/usr/bin/spark/hadoop/logs" \
   --master spark://spark:7077 \
   /opt/spark/jars/microsoft-spark-3-1_2.12-2.0.0.jar \
   dotnet myapp.dll "somefilename.txt"
4

1 回答 1

0

对于 Python 应用程序,只需传递一个 .py 文件,无需提及类名

/opt/spark/bin/spark-submit \    
--conf "spark.eventLog.enabled=true" \
--conf "spark.eventLog.dir=file:/usr/bin/spark/hadoop/logs" \   
--master spark://spark:7077 \
/your python file path/myapp.py

有关更多信息,您可以参考https://spark.apache.org/docs/latest/submitting-applications.html

于 2022-01-11T22:09:00.660 回答