Как импортировать модели django в файл scrapy pipelines.py
Я пытаюсь импортировать модели одного приложения django в файл pipelines.py для сохранения данных с использованием django orm. Я создал проект scrapy scrapy_project в первом задействованном django-приложении "app1" (кстати, это хороший выбор?). Я добавил эти строки в файл настроек scrapy:
def setup_django_env(path):
import imp, os
from django.core.management import setup_environ
f, filename, desc = imp.find_module('settings', [path])
project = imp.load_module('settings', f, filename, desc)
setup_environ(project)
current_dir = os.path.abspath(os.path.dirname(os.path.dirname(__file__)))
setup_django_env(os.path.join(current_dir, '../../d_project1'))
Когда я пытаюсь импортировать модели приложения django app1, я получаю следующее сообщение об ошибке:
Traceback (most recent call last):
File "/usr/local/bin/scrapy", line 4, in <module>
execute()
File "/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py", line 122, in execute
_run_print_help(parser, _run_command, cmd, args, opts)
File "/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py", line 76, in _run_print_help
func(*a, **kw)
File "/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py", line 129, in _run_command
cmd.run(args, opts)
File "/usr/local/lib/python2.7/dist-packages/scrapy/commands/crawl.py", line 43, in run
spider = self.crawler.spiders.create(spname, **opts.spargs)
File "/usr/local/lib/python2.7/dist-packages/scrapy/command.py", line 33, in crawler
self._crawler.configure()
File "/usr/local/lib/python2.7/dist-packages/scrapy/crawler.py", line 41, in configure
self.engine = ExecutionEngine(self, self._spider_closed)
File "/usr/local/lib/python2.7/dist-packages/scrapy/core/engine.py", line 63, in __init__
self.scraper = Scraper(crawler)
File "/usr/local/lib/python2.7/dist-packages/scrapy/core/scraper.py", line 66, in __init__
self.itemproc = itemproc_cls.from_crawler(crawler)
File "/usr/local/lib/python2.7/dist-packages/scrapy/middleware.py", line 50, in from_crawler
return cls.from_settings(crawler.settings, crawler)
File "/usr/local/lib/python2.7/dist-packages/scrapy/middleware.py", line 29, in from_settings
mwcls = load_object(clspath)
File "/usr/local/lib/python2.7/dist-packages/scrapy/utils/misc.py", line 39, in load_object
raise ImportError, "Error loading object '%s': %s" % (path, e)
ImportError: Error loading object 'scrapy_project.pipelines.storage.storage': No module named dydict.models
Почему не может получить доступ к моделям приложений django (учитывая, что app1 в установленном приложении)?
2 ответа
Пытаться:
from .. models import MyModel
ИЛИ ЖЕ
from ... models import MyModel
Каждая точка представляет местоположение
В конвейерах вы не импортируете модели django, вы используете скрап-модели, привязанные к модели django. Вы должны добавить настройки Django в настройках scrapy, а не после.
Чтобы использовать модели django в проекте scrapy, вы должны использовать django_Item https://github.com/scrapy-plugins/scrapy-djangoitem (импортировать в ваш pythonpath)
Моя рекомендуемая файловая структура:
Projects
|-DjangoScrapy
|-DjangoProject
| |-Djangoproject
| |-DjangoAPP
|-ScrapyProject
|-ScrapyProject
|-Spiders
Затем в своем проекте Scrapy вы добавите путь PythonPath ULL в проект Django:
**# Setting up django's project full path.**
import sys
sys.path.insert(0, '/home/PycharmProject/scrap/DjangoProject')
# Setting up django's settings module name.
import os
os.environ['DJANGO_SETTINGS_MODULE'] = 'DjangoProject.settings'
Затем в файле items.py вы можете связать свои модели Django с моделями Scrapy:
from DjangoProject.models import Person, Job
from scrapy_djangoitem import DjangoItem
class Person(DjangoItem):
django_model = Person
class Job(DjangoItem):
django_model = Job
Затем вы можете использовать метод.save() в конвейерах после выхода объекта:
spider.py
from scrapy.spider import BaseSpider
from mybot.items import PersonItem
class ExampleSpider(BaseSpider):
name = "example"
allowed_domains = ["dmoz.org"]
start_urls = ['http://www.dmoz.org/World/Espa%C3%B1ol/Artes/Artesan%C3%ADa/']
def parse(self, response):
# do stuff
return PersonItem(name='zartch')
pipelines.py
from myapp.models import Person
class MybotPipeline(object):
def process_item(self, item, spider):
obj = Person.objects.get_or_create(name=item['name'])
return obj
У меня есть хранилище с минимальным рабочим кодом: (вам просто нужно указать путь к вашему проекту django в настройках scrapy) https://github.com/Zartch/Scrapy-Django-Minimal
в: https://github.com/Zartch/Scrapy-Django-Minimal/blob/master/mybot/mybot/settings.py Вы должны изменить путь моего проекта Django на ваш путь Django Project:
sys.path.insert(0, '/home/zartch/PycharmProjects/Scrapy-Django-Minimal/myweb')