在写Spark程序是遇到问题
Driver stacktrace:
at org.apache.spark.scheduler.DAGScheduler.orgapacheapachesparkschedulerschedulerDAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1283)
这个原因是因为数据过大,而中断(我的天,坑死我了,只有一万条数据啊)
原文地址:https://www.cnblogs.com/chenligeng/p/9434050.html
时间: 2024-11-07 09:43:25