根据 介绍 Spark 数据集:
当我们期待 Spark 2.0时,我们计划对数据集进行一些令人兴奋的改进,具体如下: ... 自定义编码器-虽然我们目前自动生成各种类型的编码器,我们希望为自定义对象打开一个 API。
并试图在 Dataset
中存储自定义类型会导致以下错误:
无法找到存储在数据集中的类型的编码器。基本类型(Int、 String 等)和 Product 类型(case 类)都可以通过导入 sqlContext. 得到支持。_ 支持序列化其他类型将在以后的版本中添加
或:
异常: 没有找到... 的编码器。
现在有什么解决办法吗?
请注意,这个问题只作为 Community Wiki 答案的入口点存在。请随时更新/改进问题和答案。