Musiałem dodać driver
opcja podczas korzystania z sparkSession
read
funkcjonować.
.option("driver", "org.postgresql.Driver")
var jdbcDF - sparkSession.read
.option("driver", "org.postgresql.Driver")
.option("url", "jdbc:postgresql://<host>:<port>/<DBName>")
.option("dbtable", "<tableName>")
.option("user", "<user>")
.option("password", "<password>")
.load()
W zależności od tego, jak skonfigurowane są twoje zależności, zauważysz, że gdy dołączysz coś takiego jak compile group: 'org.postgresql', name: 'postgresql', version: '42.2.8'
na przykład w Gradle będzie to obejmować klasę Driver w org/postgresql/Driver.class
, i to jest ten, który chcesz załadować Sparka.