微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

java – 单个JVM中的多个Spark服务器

有没有办法在同一个JVM中运行多个Spark java服务器实例?我在“插件”软件中使用它,并根据外部环境启动我的插件的多个实例,然后导致
java.lang.IllegalStateException: This must be done before route mapping has begun
at spark.SparkBase.throwBeforeRouteMappingException(SparkBase.java:256)
at spark.SparkBase.port(SparkBase.java:101)
at com.foo.bar.a(SourceFile:59)

在我看来,它是在代码中围绕静态字段构建的代码,所以我正在考虑类加载器技巧或使用SparkServerFactory以某种方式消除SparkBase.

解决方法

从Spark 2.5你可以使用ignite():

http://sparkjava.com/news.html#spark25released

例:

public static void main(String[] args) {
    igniteFirstSpark();
    igniteSecondSpark();
}

static void igniteSecondSpark() {
    Service http = ignite();

    http.get("/basicHello",(q,a) -> "Hello from port 4567!");
}

static void igniteFirstSpark() {
    Service http = ignite()
                      .port(8080)
                      .threadPool(20);

    http.get("/configuredHello",a) -> "Hello from port 8080!");
}

我个人初始化它们是这样的:

import spark.Service

public static void main(String[] args) {
    Service service1 = Service.ignite().port(8080).threadPool(20)
    Service service2 = Service.ignite().port(8081).threadPool(10)
}

我建议阅读关于how to use those services outside your main method,我认为这在这里很有用.

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐