MongoDB
 sql >> Baza danych >  >> NoSQL >> MongoDB

Łączenie Sparka z wieloma kolekcjami Mongo

Naprawiłem ten problem, dodając poniższy kod

JavaSparkContext newcontext = new JavaSparkContext(session.sparkContext());
Map<String, String> readOverrides = new HashMap<String, String>();
readOverrides.put("collection", "details");
readOverrides.put("readPreference.name", "secondaryPreferred");
ReadConfig readConfig = ReadConfig.create(newcontext).withOptions(readOverrides);
MongoSpark.load(newcontext,readConfig);


  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. Jeśli agregat mongodb nie używa indeksów do $lookup, dlaczego moja wydajność wzrasta podczas korzystania z indeksów?

  2. Jednoczesna aktualizacja elementów tablicy, które są dokumentami osadzonymi w MongoDB

  3. Sink Kafka Stream do MongoDB za pomocą PySpark Structured Streaming

  4. MongoDB $strcasecmp

  5. Loopback ValidationError:instancja „Role” jest nieprawidłowa. Szczegóły:„nazwa” już istnieje (wartość:admin)