最佳答案
如何增加 Apache 火花执行器节点的可用内存?
我有一个2GB 的文件,适合加载到 ApacheSpark。我在一台机器上运行阿帕奇火花,所以驱动程序和执行程序在同一台机器上。这台机器有8GB 的内存。
当我在设置文件缓存在内存中后尝试计算文件的行数时,我会得到以下错误:
2014-10-25 22:25:12 WARN CacheManager:71 - Not enough space to cache partition rdd_1_1 in memory! Free memory is 278099801 bytes.
我查看了文档 给你,并在 $SPARK_HOME/conf/spark-defaults.conf
中将 spark.executor.memory
设置为 4g
UI 显示这个变量是在 Spark Environment 中设置的
但是,当我转到 执行标签时,我的单个 Execator 的内存限制仍然被设置为265.4 MB。我仍然得到相同的错误。
我尝试了各种提到的 给你的东西,但我仍然得到错误,并没有一个清楚的想法,我应该改变设置。
我正在火花壳程序中交互式地运行我的代码