Джанго светильники. Загрузка начальных данных в процессе убивается
Я работал над уточнением и рефакторингом некоторых записей из 57 тыс.+ из двух устаревших баз данных в одну Django-совместимую сущность. Теперь, когда я закончил, я выбросил его как приспособление и пытаюсь загрузить его в производственную среду.
Моя проблема в том, что процесс "убивают" через короткое время. Мой процесс:
./manage.py syncdb --noinput
./manage.py loaddata core/fixtures/auth.json # just a default user
./manage.py migrate
результат:
Running migrations for django_extensions: # custom apps migrate just fine
- Migrating forwards to 0001_empty.
> django_extensions:0001_empty
- Loading initial data for django_extensions.
Installed 0 object(s) from 0 fixture(s)
Running migrations for myotherapp:
- Migrating forwards to 0001_initial.
> myotherapp:0001_initial
- Loading initial data for myotherapp.
Installed 4 object(s) from 1 fixture(s) # my other app with a fixture migrates ok
Running migrations for myapp:
- Migrating forwards to 0001_initial.
> myapp:0001_initial
- Loading initial data for myapp.
Killed
Должен отметить, что на моей машине для разработки процесс идет без проблем. Еще одно замечание: на моей машине работает Postgres 9.2, в производстве - 9.1 - может ли это быть большой проблемой?
Как мне подойти к отладке этого? Я даже не знаю, что плохого в расплывчатом расплывчатом "Убитом". Хранит ли Юг какие-либо журналы? Любая помощь приветствуется.
РЕДАКТИРОВАТЬ: Как отметил Пауло Скардин, проблема была в том, что файл JSON был слишком тяжелым. Сначала я попробовал дамп XML, и он пошел дальше, но в конце концов тоже был убит. Способ пойти - дамп SQL. Для Postgres у меня сработало следующее:
pg_dump dbname | gzip > filename.gz # dump data on dev machine
createdb dbname # create empty db in production
gunzip -c filename.gz | psql dbname # restore the dump in production
1 ответ
Не удалось найти конкретную ошибку, связанную с загрузкой приборов. Это для сброса, но я думаю, что основная причина связана с:
Есть пара дубликатов вашего вопроса:
- Чтение довольно больших файлов JSON в Python
- Есть ли эффективный способ памяти и быстрый способ загрузки больших файлов JSON в Python?
Когда я столкнулся с этой ошибкой, мне сказали использовать вместо этого фикстуры XML, потому что анализатор XML ведет себя лучше с точки зрения использования памяти.
Мой совет - не терять много сна из-за этой проблемы, прибегайте к простым дампам SQL, если можете.