问题标签 [scala-script]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
scala - Scala 脚本不能在 Ubuntu 上运行
我有一个以前工作的 Scala 脚本,当我尝试在新 PC 上运行它时,编译失败。
所以我做了简单的脚本来测试:
并尝试运行它,我得到:
似乎 Scala 正在我的脚本附近编译一些东西,但我不太清楚如何调试和修复它。
apache-spark - spark提交应用程序中的Scala ScriptEngine问题
我正在开发一个让用户编写 DSLS 并在运行时将其作为我的 Type 实例加载的系统,这些可以应用于 RDD 之上。整个应用程序作为 spark-submit 应用程序运行,我使用 ScriptEngine 引擎编译用 Scala 本身编写的 DSL。每个测试在 SBT 和 IntelliJ 中都能正常工作。但是,在进行 spark-submit 时,我的 fat-jar 中可用的我自己的类型无法在 Script 中导入。我如下初始化脚本引擎。
这似乎是火花提交期间类加载器的问题。但是我无法弄清楚为什么我自己的 jar 中的类型也有 spark-submit 的主程序在我的脚本中不可用的原因,该脚本是在同一个 JVM 中创建的。scala scala-compiler、scala-reflect 和 scala-library 版本是 2.11.8。一些帮助将不胜感激。
scala - 无法解析 Intellij 中的 Ammonite 主要方法
我想像@main
这里描述的那样使用:https ://ammonite.io/#ScriptArguments
它无法在 Intellij 中解决。我找不到进口。我添加了这些依赖项:
有没有办法做到这一点?
bash - 如何使用 Ammonite Script 运行“set”或“source”
我想用 Ammonite 做以下事情:
我的解决方案如下所示:
前 2 行不起作用,我得到No such file or directory
.
我尝试了不同的变体:
这些命令在bash
.
如何正确使用 Ammonite?
scala - Ammonite:如何使用 Ivy 依赖项中的另一个脚本?
我有一个要在 JAR 中交付的Ammonite 脚本。
在另一个项目中,我想使用这个脚本 - 但到目前为止没有成功。
我根据文档(sol_local_build.sc
)尝试过:
local_build.sc
在我要使用的脚本中。
这是我得到的例外:
scala - 避免重新编译 Scalas 脚本
我喜欢使用 Scala 作为脚本语言的想法 ( https://www.scala-sbt.org/1.x/docs/Scripts.html )。但是,即使是最简单的 Hello World 脚本也总是需要很长时间才能运行,大概是因为 sbt 每次都在重新编译脚本。
有没有办法指示 sbt 保存编译结果,以防脚本自上次编译以来没有更改?
scala - 使用 Mill 或 SBT 在测试中运行时找不到 Scala 脚本引擎
我对测试 Scala 脚本引擎有一个奇怪的行为。
我有以下代码:
运行测试Mill
或sbt
引擎为空,即使有一个用于 scala 的引擎,如日志消息所示:
使用作品运行相同的测试Intellij
。
更新
尝试通过过滤获取工厂后,获取脚本引擎(factory.getScriptEngine
)时出现异常:
apache-spark - 在 spark-shell 中运行带有换行符的 scala 脚本
我正在尝试使用以下命令通过 spark shell 运行 scala 脚本:
spark-shell -i myScriptFile.scala
当我有单行命令时,我可以让上面的命令工作,但是如果我在脚本中有任何换行符(为了便于阅读),spark-shell(或 REPL?)会将每一行解释为一个完整的操作. 这是我的脚本示例:
使用此脚本运行 spark-shell 时,出现以下错误:
<console>:1: error: illegal start of definition
脚本的语法是正确的,因为如果我启动 shell 并手动将此代码粘贴到 with 中:paste
,一切正常。
我试过用反斜杠结束所有多行命令,\
但这也不起作用。
有没有人对我如何保持脚本多行但仍然能够将 spark-shell 作为参数传递给它有任何建议?