加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

scala – Spark SQL datediff在几秒钟内

发布时间:2020-12-16 09:00:37 所属栏目:安全 来源:网络整理
导读:我有以下代码: table.select(datediff(table.col("Start Time"),table.col("End Time"))).show() Date format is 2016-05-19 09:23:28 ( YYYY-MM-DD HH:mm:SS ) 函数datediff计算天数的差异.但我想在几秒钟内有所不同. 解决方法 您可以使用 unix_timestamp(
我有以下代码:

table.select(datediff(table.col("Start Time"),table.col("End Time"))).show()

Date format is 2016-05-19 09:23:28 (YYYY-MM-DD HH:mm:SS)

函数datediff计算天数的差异.但我想在几秒钟内有所不同.

解决方法

您可以使用 unix_timestamp()功能将日期转换为秒.

import org.apache.spark.sql.functions._

//For $notation columns // Spark 2.0
import spark.implicits._

table.withColumn("date_diff",(unix_timestamp($"Start Time") - unix_timestamp($"End Time"))
).show()

编辑:(根据评论)

UDF将秒数转换为HH:mm:ss

sqlContext.udf.register("sec_to_time",(s: Long) => 
   ((s / 3600L) + ":" + (s / 60L) + ":" + (s % 60L))
)

//Use registered UDF now
table.withColumn("date_diff",sec_to_time(unix_timestamp($"Start Time") - unix_timestamp($"End Time"))
).show()

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读