Sam Spark jest uzależniony od Hadoop, a dane w HDFS mogą być używane jako źródło danych.
Jeśli jednak używasz Mongo Spark Connector możesz używać MongoDB jako źródła danych dla Sparka bez przechodzenia przez Hadoop.
Sam Spark jest uzależniony od Hadoop, a dane w HDFS mogą być używane jako źródło danych.
Jeśli jednak używasz Mongo Spark Connector możesz używać MongoDB jako źródła danych dla Sparka bez przechodzenia przez Hadoop.
Pymongo:insert_many + unikalny indeks
Elasticsearch vs. MongoDB do aplikacji filtrującej
Czy powinienem używać opcji allowDiskUse w środowisku produktu?
Jak (prawidłowo) wdrożyć MongoDB na Kubernetes i uzyskać do niego dostęp z innego poda/zadania?
multi sum/count on mongodb (suma płci i suma wszystkich wyników)