Функция to_timestamp() в spark дает нулевые значения
Итак, я прочитал CSV-файл со схемой:
mySchema = StructType([StructField("StartTime", StringType(), True),
StructField("EndTime", StringType(), True)])
data = spark.read.load('/mnt/Experiments/Bilal/myData.csv', format='csv', header='false', schema = mySchema)
data.show(truncate = False)
Я получаю это:
+---------------------------+---------------------------+
|StartTime |EndTime |
+---------------------------+---------------------------+
|2018-12-24T03:03:31.8088926|2018-12-24T03:07:35.2802489|
|2018-12-24T03:13:25.7756662|2018-12-24T03:18:10.1018656|
|2018-12-24T03:23:32.9391784|2018-12-24T03:27:57.2195314|
|2018-12-24T03:33:31.0793551|2018-12-24T03:37:04.6395942|
|2018-12-24T03:43:54.1638926|2018-12-24T03:46:38.1188857|
+---------------------------+---------------------------+
Теперь, когда я преобразую эти столбцы из stringtype в timestamptype, используя:
data = data.withColumn('StartTime', to_timestamp('StartTime', "yyyy-MM-dd'T'HH:mm:ss.SSSSSS"))
data = data.withColumn('EndTime', to_timestamp('EndTime', "yyyy-MM-dd'T'HH:mm:ss.SSSSSS"))
Я получаю нулевые значения:
+---------+-------+
|StartTime|EndTime|
+---------+-------+
|null |null |
|null |null |
|null |null |
|null |null |
|null |null |
+---------+-------+
0 ответов
Я смог решить это путем кастинга. Странно формат не понадобился.
(Spark 2.4.0. Локальный режим в Windows 10)
Схема перед приведением.
df.printSchema()
root
|-- StartTime: string (nullable = true)
|-- EndTime: string (nullable = true)
from pyspark.sql import functions as F
df2 = df.withColumn('StartTime', F.col('StartTime').cast("timestamp")) \
.withColumn('EndTime', F.col('EndTime').cast("timestamp"))
результат
df2.show(truncate=False)
+--------------------------+--------------------------+
|StartTime |EndTime |
+--------------------------+--------------------------+
|2018-12-24 03:03:31.808892|2018-12-24 03:07:35.280248|
|2018-12-24 03:13:25.775666|2018-12-24 03:18:10.101865|
|2018-12-24 03:23:32.939178|2018-12-24 03:27:57.219531|
|2018-12-24 03:33:31.079355|2018-12-24 03:37:04.639594|
|2018-12-24 03:43:54.163892|2018-12-24 03:46:38.118885|
+--------------------------+--------------------------+
Проверить схему
df2.printSchema()
root
|-- StartTime: timestamp (nullable = true)
|-- EndTime: timestamp (nullable = true)