Spark SQL DataSource API для записи таблицы на Spark Thrift Server

Я пытаюсь записать спарк-фрейм на сервер Thrift. Я могу читать таблицы, но хочу программно обновлять их по мере поступления данных.

Я пытался способами:

1)

df.write.mode("append").format("jdbc").option("url","jdbc:hive2://192.168.2.187:10000/mytest").option("dbtable", "my_test_table").save()

выход:

java.sql.SQLException: Method not supported
    at org.apache.hive.jdbc.HivePreparedStatement.addBatch(HivePreparedStatement.java:75)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcUtils$.savePartition(JdbcUtils.scala:651)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcUtils$$anonfun$saveTable$1.apply(JdbcUtils.scala:821)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcUtils$$anonfun$saveTable$1.apply(JdbcUtils.scala:821)
    at org.apache.spark.rdd.RDD$$anonfun$foreachPartition$1$$anonfun$apply$29.apply(RDD.scala:929)...

2)

df.write.mode("append").jdbc(url,table,prop)

вывод: точно такой же.

таблица и база данных существуют. Если есть лучший способ сделать это, я открыт для предложений.

0 ответов

Другие вопросы по тегам