Mysql
 sql >> Baza danych >  >> RDS >> Mysql

Spark:wczytywanie dużej tabeli MySQL do DataFrame kończy się niepowodzeniem

Spark JDBC API wydaje się rozgałęziać, aby załadować wszystkie dane z tabeli MySQL do pamięci bez. Więc kiedy próbujesz załadować dużą tabelę, powinieneś najpierw użyć danych klonu Spark API do HDFS (JSON powinien być używany do zachowania struktury schematu), w ten sposób:

spark.read.jdbc(jdbcUrl, tableName, prop)
       .write()
       .json("/fileName.json");

Wtedy możesz normalnie pracować na HDFS.

spark.read().json("/fileName.json")
       .createOrReplaceTempView(tableName);



  1. Database
  2.   
  3. Mysql
  4.   
  5. Oracle
  6.   
  7. Sqlserver
  8.   
  9. PostgreSQL
  10.   
  11. Access
  12.   
  13. SQLite
  14.   
  15. MariaDB
  1. importowanie pliku sql do bazy danych za pomocą wamp

  2. Instalacja Percona/MySQL bez nadzoru na Ubuntu

  3. Zapytanie MySQL do ElasticSearch

  4. Jak stwierdzić, kiedy zapytanie zostało pomyślnie wykonane w PHP PDO?

  5. Jakie są różnice między SQL a MySQL