MongoDB
 sql >> Baza danych >  >> NoSQL >> MongoDB

Nie można połączyć się z Mongo DB przez Spark

Spark nie może znaleźć com.mongodb.spark.sql.DefaultSource pakiet, stąd komunikat o błędzie.

Wszystko inne wygląda dobrze, wystarczy dołączyć pakiet Mongo Spark:

> $SPARK_HOME/bin/pyspark --packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0

Lub upewnij się, że plik jar znajduje się we właściwej ścieżce.

Upewnij się, że sprawdziłeś wersję pakietu Mongo-Spark wymaganą dla Twojej wersji Spark: https://spark-packages.org/package/mongodb/mongo-spark



  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. MongoDB:dopasuj niepusty dokument w tablicy

  2. Zaktualizuj wiele dokumentów i zwróć wszystkie zaktualizowane dokumenty

  3. baza danych node.js

  4. Czy wykonanie częściowej aktualizacji dokumentu MongoDb w WiredTiger zapewnia jakąkolwiek przewagę nad pełną aktualizacją dokumentu?

  5. jak uruchomić zapytanie agregujące w kliencie mongodb na RockMongo lub mViewer