Как обрабатывать соединения кассандры в искровой работе?
Я провожу стресс-тест на своем искровом приложении, в котором используется разъем искровой кассандры, а также драйвер кассандры. В моем приложении я использую драйвер cassandra, чтобы выбрать самое последнее значение из таблицы C*. Это работает нормально до тех пор, пока отправка спарк-задания происходит один за другим через сервер спарк-заданий. Но если отправка нескольких заданий (количество запросов = 80) происходит одновременно, я получаю исключение, как показано ниже.
org.jboss.netty.channel.ChannelException: Failed to create a selector.
at org.jboss.netty.channel.socket.nio.AbstractNioSelector.openSelector(AbstractNioSelector.java:343) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioSelector.<init>(AbstractNioSelector.java:100) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioWorker.<init>(AbstractNioWorker.java:52) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioWorker.<init>(NioWorker.java:45) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioWorkerPool.createWorker(NioWorkerPool.java:45) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioWorkerPool.createWorker(NioWorkerPool.java:28) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioWorkerPool.newWorker(AbstractNioWorkerPool.java:143) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioWorkerPool.init(AbstractNioWorkerPool.java:81) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioWorkerPool.<init>(NioWorkerPool.java:39) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioWorkerPool.<init>(NioWorkerPool.java:33) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioClientSocketChannelFactory.<init>(NioClientSocketChannelFactory.java:151) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioClientSocketChannelFactory.<init>(NioClientSocketChannelFactory.java:116) ~[netty-3.8.0.Final.jar:na]
at com.datastax.driver.core.Connection$Factory.<init>(Connection.java:532) ~[cassandra-driver-core-2.1.5.jar:na]
at com.datastax.driver.core.Cluster$Manager.<init>(Cluster.java:1201) ~[cassandra-driver-core-2.1.5.jar:na]
at com.datastax.driver.core.Cluster$Manager.<init>(Cluster.java:1144) ~[cassandra-driver-core-2.1.5.jar:na]
at com.datastax.driver.core.Cluster.<init>(Cluster.java:121) ~[cassandra-driver-core-2.1.5.jar:na]
at com.datastax.driver.core.Cluster.<init>(Cluster.java:108) ~[cassandra-driver-core-2.1.5.jar:na]
at com.datastax.driver.core.Cluster.buildFrom(Cluster.java:177) ~[cassandra-driver-core-2.1.5.jar:na]
at com.datastax.driver.core.Cluster$Builder.build(Cluster.java:1109) ~[cassandra-driver-core-2.1.5.jar:na]
...
Caused by: java.io.IOException: Too many open files
at sun.nio.ch.IOUtil.makePipe(Native Method) ~[na:1.7.0_55]
at sun.nio.ch.EPollSelectorImpl.<init>(EPollSelectorImpl.java:65) ~[na:1.7.0_55]
at sun.nio.ch.EPollSelectorProvider.openSelector(EPollSelectorProvider.java:36) ~[na:1.7.0_55]
at java.nio.channels.Selector.open(Selector.java:227) ~[na:1.7.0_55]
at org.jboss.netty.channel.socket.nio.SelectorUtil.open(SelectorUtil.java:63) ~[netty-3.8.0.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioSelector.openSelector(AbstractNioSelector.java:341) ~[netty-3.8.0.Final.jar:na]
Я запускаю задание, создавая единый контекст на сервере заданий Spark.
Мой код
val dateQuery = "SELECT st_date FROM %s limit 1"
val queryString = dateQuery.format(tableName)
val cluster = Cluster.builder().addContactPoints(cassandraHosts: _*)
.withCredentials(username, password).build()
val session = cluster.connect(keyspace)
val queryResult = Try(session.execute(queryString).map(x => x.getDate("st_date")).head)
cluster.close()
Вопросы
Что-то я делаю неправильно в коде?
Как решить эту проблему?
Должен ли я создать объект с одним кластером для всего приложения и поделиться им?
Должен ли я использовать sc.cassandraTable
метод вместо непосредственного использования драйвера Java?
1 ответ
Я не знаком с сервером заданий Spark, но фрагмент кода выглядит некорректно.
Прежде всего вы не закрываете сеанс, что должно быть сделано до закрытия кластера.
Во-вторых, вы должны повторно использовать сеанс для каждого запроса, а не открывать и закрывать его для каждого отдельного запроса.
Так что да, кластер и сеанс должны быть созданы как одноэлементные и использоваться повторно, и вы обычно закрываете их только при выходе из приложения.