在Spark(Python)中: 如果sc是 Spark 上下文 (pyspark.SparkContext),则有什么区别: r = sc.parallelize([1,2,3,4,5]) 和 r = sc.broadcast([1,2,3,4,5])? 请您参考如下方法: sc.parallelize(...)在所有执行器之间传播数据 sc.broadcast(...)复制各个executor的jvm中的数据...