我在文件中创建了 sparkSession 对象,delta_interface_logids.py如下所示:
from loader.LoadRunner import LoadRunner
from pyspark import SparkConf
from pyspark.sql import SparkSession
import pyspark.sql.functions as F
def get_data(spark):
do_something_with_spark
return something
if __name__ == "__main__":
max_interface_log_id_dict = {}
sparkConf = SparkConf().setAppName("DummyAP").set("spark.jars", "/home/usrname/jars/postgresql-42.1.4.jar ")
spark = SparkSession.builder.config(conf=sparkConf).enableHiveSupport().getOrCreate()
log_data = get_data(spark)
load = LoadRunner(spark)
我有get_data()一个变量的输出,log_data我正在尝试在 Python 中实现一个类,该类接受log_data并执行一些操作。为此,我创建了一个如下所示的类:

但是当我尝试使用 spark 对象的功能时,我发现 spark 对象没有正确初始化,因为我没有看到 sparkSession 对象生成的方法:spark我已经__init__在屏幕截图中看到的方法中初始化了这些方法。
我在这里做的任何错误是我没有正确看到 spark 对象的方法吗?如何LoadRunner从文件中正确地向类发送和初始化 spark 对象:delta_interface_logids.py