spark加载hadoop本地库的时候出现不能加载的情况要怎么解决

2025-03-09 09:03:11
推荐回答(1个)
回答1:

答:Spark与Hadoop一样,是一种开源的集群计算环境,但在特定工作负载情况下比Hadoop更高效。Spark采用基于内存的分布式数据集,优化了迭代式的工作负载以及交互式查询。 Spark采用Scala语言实现,使用Scala作为应用框架。与Hadoop不同的是,Spark和...