加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Java > 正文

如何使用spark-connector-api在where子句中设置blob列?

发布时间:2020-12-15 01:06:38 所属栏目:Java 来源:网络整理
导读:我试图找出如何在where子句下设置blob列.任何的想法? 例如,如果我在cqlsh中放入以下查询,它就可以工作 select * from hello where id=0xc1c1795a0b; // id是cassandra中的blob列 我尝试了以下内容 JavaRDD 这给了我一个类型转换器例外 我试过这个 JavaRDD

我试图找出如何在where子句下设置blob列.任何的想法?

例如,如果我在cqlsh中放入以下查询,它就可以工作

select * from hello where id=0xc1c1795a0b;

// id是cassandra中的blob列

我尝试了以下内容

JavaRDD

这给了我一个类型转换器例外

我试过这个

JavaRDD

这没有给我任何错误,但它没有返回任何结果.我的cqlsh中的查询确实返回了一堆结果.所以我不确定在where子句中设置一个blob.我正在使用Java.有任何想法吗?

最佳答案
用这个.

import com.datastax.driver.core.utils.Bytes;

JavaRDD

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读