Чтение файла последовательности в PySpark 2.0
У меня есть файл последовательности, значения которого выглядят как
(string_value, json_value)
Меня не волнует строковое значение.
В Scala я могу прочитать файл
val reader = sc.sequenceFile[String, String]("/path...")
val data = reader.map{case (x, y) => (y.toString)}
val jsondata = spark.read.json(data)
Мне трудно преобразовать это в PySpark. Я пытался использовать
reader= sc.sequenceFile("/path","org.apache.hadoop.io.Text", "org.apache.hadoop.io.Text")
data = reader.map(lambda x,y: str(y))
jsondata = spark.read.json(data)
Ошибки загадочны, но я могу предоставить их, если это поможет. Мой вопрос: каков правильный синтаксис для чтения этих файлов последовательности в pySpark2?
Я думаю, что я не преобразовываю элементы массива в строки правильно. Я получаю подобные ошибки, если я делаю что-то простое, как
m = sc.parallelize([(1, 2), (3, 4)])
m.map(lambda x,y: y.toString).collect()
или же
m = sc.parallelize([(1, 2), (3, 4)])
m.map(lambda x,y: str(y)).collect()
Спасибо!
2 ответа
Основная проблема с вашим кодом - это функция, которую вы используете. Функция передана map
должен принять один аргумент. Используйте либо:
reader.map(lambda x: x[1])
или просто:
reader.values()
Пока keyClass
а также valueClass
сопоставьте данные, это должно быть все, что вам нужно здесь, и не должно быть необходимости в дополнительных преобразованиях типов (это обрабатывается внутренне sequenceFile
). Напишите в Scala:
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.1.0
/_/
Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_111)
Type in expressions to have them evaluated.
Type :help for more information.
scala> :paste
// Entering paste mode (ctrl-D to finish)
sc
.parallelize(Seq(
("foo", """{"foo": 1}"""), ("bar", """{"bar": 2}""")))
.saveAsSequenceFile("example")
// Exiting paste mode, now interpreting.
Читайте на Python:
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__ / .__/\_,_/_/ /_/\_\ version 2.1.0
/_/
Using Python version 3.5.1 (default, Dec 7 2015 11:16:01)
SparkSession available as 'spark'.
In [1]: Text = "org.apache.hadoop.io.Text"
In [2]: (sc
...: .sequenceFile("example", Text, Text)
...: .values()
...: .first())
Out[2]: '{"bar": 2}'
Примечание:
Старые версии Python поддерживают распаковку параметров кортежа:
reader.map(lambda (_, v): v)
Не используйте его для кода, который должен быть напрямую совместим.
Для Spark 2.4.x вы должны получить объект sparkContext из SparkSession (объект искры). Который имеет API-интерфейс sequenceFile для чтения файлов последовательности.
spark.
sparkContext.
sequenceFile('/user/sequencesample').
toDF().show()
Выше один работает как шарм.
Для записи ( паркет в sequenceFile):
spark.
read.
format('parquet').
load('/user/parquet_sample').
select('id',F.concat_ws('|','id','name')).
rdd.map(lambda rec:(rec[0],rec[1])).
saveAsSequenceFile('/user/output')
Сначала преобразуйте DF в RDD и создайте кортеж из пары (Key,Value) перед сохранением как SequenceFile.
Я надеюсь, что этот ответ поможет вашей цели.