Scrapy Pipeline ma open_spider metoda, która jest wykonywana po zainicjowaniu pająka. Możesz przekazać do swojego pająka odwołanie do połączenia z bazą danych, metody get_date() lub samego potoku. Przykładem tego ostatniego z twoim kodem jest:
# This is my Pipline
class MongoDBPipeline(object):
def __init__(self, mongodb_db=None, mongodb_collection=None):
self.connection = pymongo.Connection(settings['MONGODB_SERVER'], settings['MONGODB_PORT'])
....
def process_item(self, item, spider):
....
def get_date(self):
....
def open_spider(self, spider):
spider.myPipeline = self
Następnie w pająku:
class Spider(Spider):
name = "test"
def __init__(self):
self.myPipeline = None
def parse(self, response):
self.myPipeline.get_date()
Nie sądzę, aby __init__()
metoda jest tutaj konieczna, ale umieściłem ją tutaj, aby pokazać, że open_spider zastępuje ją po inicjalizacji.