之前剛剛用spark,出現這個問題也是很頭痛,一直以為是內存的問題,糾結了一整天也沒解決。
后來才發現是因為導入的jar包版本不一致。 在用spark之前在eclipse上導入了其他的包,跟spark的包里有沖突,所以一直報錯啊啊啊,后來把原來的包都remove掉了。 原來怕eclipse導入太多的包會承擔不了,在用spark的時候提示需要哪個包,我才導進去,結果spark需要的包太多了,導完一個還有一個,后來導入一半的包了,還一直報錯,耐心告罄!!! 一口氣把所有包都導進去了,終于搞定了! 果然簡單粗暴的方式是最好用的,淚!
給用spark的小伙伴們提個醒!
新聞熱點
疑難解答