首页 > 编程 > Java > 正文

spark java.lang.IllegalStateException: unread block data

2019-11-06 07:41:22
字体:
来源:转载
供稿:网友

之前刚刚用spark,出现这个问题也是很头痛,一直以为是内存的问题,纠结了一整天也没解决。

后来才发现是因为导入的jar包版本不一致。 在用spark之前在eclipse上导入了其他的包,跟spark的包里有冲突,所以一直报错啊啊啊,后来把原来的包都remove掉了。 原来怕eclipse导入太多的包会承担不了,在用spark的时候提示需要哪个包,我才导进去,结果spark需要的包太多了,导完一个还有一个,后来导入一半的包了,还一直报错,耐心告罄!!! 一口气把所有包都导进去了,终于搞定了! 果然简单粗暴的方式是最好用的,泪!

给用spark的小伙伴们提个醒!


发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表