apache-spark - 我的 SparkSession 初始化需要很长时间才能在我的笔记本电脑

我的 SparkSession 需要很长时间才能初始化

from pyspark.sql import SparkSession
spark = (SparkSession
         .builder
         .appName('Huy')
         .getOrCreate())
sc = spark.SparkContext

等了几个小时都没有成功

最佳答案

我遇到了同样的错误。我已经通过设置环境变量解决了它。我们可以直接在python代码中设置它们。您需要程序文件中的 JDK。

import os
os.environ["JAVA_HOME"] = "C:\Program Files\Java\jdk-19"
os.environ["SPARK_HOME"] = "C:\Program Files\Spark\spark-3.3.1-bin-hadoop2"

关于apache-spark - 我的 SparkSession 初始化需要很长时间才能在我的笔记本电脑上运行。有人知道为什么吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54185883/

相关文章:

r - 使用 R 中的 DBI 和 ActiveDirectoryPassword 身份验证连接到

css - VS Code 中的“导航到声明/实现”

laravel - 错误 "Installation failed, reverting ./com

azure - AADSTS50011 : The reply url specified in t

php - 如何为 Composer 创建分支别名并使用它?

performance - Html-Webpack-Plugin 在多个 pug 文件上非常慢

python - gremlin-python : what is a valid vertex c

sql-server - 来自 Azure 网站的 Azure VM SQL Server Inte

reactjs - 用于 Web 的 React 向上滑动面板

reactjs - 从 DateInput BlueprintJS 更改月份名称