ошибка: значение show не является членом модуля CaseFileDFTemp.show()
Я запустил код ниже в databricks
scala notebook, но я получаю сообщение об ошибке.
ДОБАВЛЕННАЯ БИБЛИОТЕКА: azure-cosmosdb-spark_2.4.0_2.11-1.3.4-uber КОД:
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
import spark.implicits._
import org.apache.spark.sql.functions._
import org.apache.spark.sql.Column
import org.apache.spark.sql.types.{StructType, StructField, StringType, IntegerType,LongType,FloatType,DoubleType, TimestampType}
import org.apache.spark.sql.cassandra._
//datastax Spark connector
import com.datastax.spark.connector._
import com.datastax.spark.connector.cql.CassandraConnector
import com.datastax.driver.core.{ConsistencyLevel, DataType}
import com.datastax.spark.connector.writer.WriteConf
//Azure Cosmos DB library for multiple retry
import com.microsoft.azure.cosmosdb.cassandra
import sqlContext.implicits._
spark.conf.set("x","x")
spark.conf.set("x","x")
spark.conf.set("x","x")
spark.conf.set("x","x")
val CaseFileDFTemp = sqlContext
.read
.format("org.apache.spark.sql.cassandra")
.options(Map( "table" -> "case_files", "keyspace" -> "shared"))
.load().show()
CaseFileDFTemp.show()
ОШИБКА:
ошибка: значение show не является членом модуля CaseFileDFTemp.show()
2 ответа
Не могли бы вы попробовать создать контекст SQL и попробовать функцию show.
import sqlContext.implicits._
val sqlContext= new org.apache.spark.sql.SQLContext(sc)
Пожалуйста, дайте мне знать, если это поможет.
Если вы напишете
val CaseFileDFTemp = sqlContext
.read
.format("org.apache.spark.sql.cassandra")
.options(Map( "table" -> "case_files", "keyspace" -> "shared"))
.load().show()
потом CaseFileDFTemp
будет иметь тип Unit
, поскольку show()
будет "потреблять" ваш фрейм данных. Так что удалиshow()
, тогда это будет работать