Джанго светильники. Загрузка начальных данных в процессе убивается

Я работал над уточнением и рефакторингом некоторых записей из 57 тыс.+ из двух устаревших баз данных в одну Django-совместимую сущность. Теперь, когда я закончил, я выбросил его как приспособление и пытаюсь загрузить его в производственную среду.

Моя проблема в том, что процесс "убивают" через короткое время. Мой процесс:

./manage.py syncdb --noinput
./manage.py loaddata core/fixtures/auth.json  # just a default user
./manage.py migrate

результат:

Running migrations for django_extensions:  # custom apps migrate just fine
 - Migrating forwards to 0001_empty.
 > django_extensions:0001_empty
 - Loading initial data for django_extensions.
Installed 0 object(s) from 0 fixture(s)
Running migrations for myotherapp:
 - Migrating forwards to 0001_initial.
 > myotherapp:0001_initial
 - Loading initial data for myotherapp.
Installed 4 object(s) from 1 fixture(s)  # my other app with a fixture migrates ok
Running migrations for myapp:
 - Migrating forwards to 0001_initial.
 > myapp:0001_initial
 - Loading initial data for myapp.
Killed

Должен отметить, что на моей машине для разработки процесс идет без проблем. Еще одно замечание: на моей машине работает Postgres 9.2, в производстве - 9.1 - может ли это быть большой проблемой?

Как мне подойти к отладке этого? Я даже не знаю, что плохого в расплывчатом расплывчатом "Убитом". Хранит ли Юг какие-либо журналы? Любая помощь приветствуется.

РЕДАКТИРОВАТЬ: Как отметил Пауло Скардин, проблема была в том, что файл JSON был слишком тяжелым. Сначала я попробовал дамп XML, и он пошел дальше, но в конце концов тоже был убит. Способ пойти - дамп SQL. Для Postgres у меня сработало следующее:

pg_dump dbname | gzip > filename.gz # dump data on dev machine
createdb dbname # create empty db in production
gunzip -c filename.gz | psql dbname # restore the dump in production

1 ответ

Решение

Не удалось найти конкретную ошибку, связанную с загрузкой приборов. Это для сброса, но я думаю, что основная причина связана с:

Есть пара дубликатов вашего вопроса:

Когда я столкнулся с этой ошибкой, мне сказали использовать вместо этого фикстуры XML, потому что анализатор XML ведет себя лучше с точки зрения использования памяти.

Мой совет - не терять много сна из-за этой проблемы, прибегайте к простым дампам SQL, если можете.

Другие вопросы по тегам