Улучшение производительности разбора Арго

В тестировании с Swift 2.1 производительность синтаксического анализа Argo была особенно низкой.

У меня есть модель, User это имеет 20 полей. Некоторые из них являются коллекциями. Должен ли я попытаться разбить это дальше?

1 ответ

Я не думаю, что размер вашей модели занимает много времени. Мы заметили, что большие блоки JSON могут занимать время для анализа и декодирования. В репозитории github ( https://github.com/thoughtbot/Argo) есть 2 теста производительности, которые анализируют и декодируют файл JSON объемом 4,6 МБ. Их производительность в настоящее время в основной ветке составляет около 2,5 секунд каждая, что может составлять 5 секунд общего времени.

Есть ли у вас какие-либо цифры о размере JSON, который вы получаете, или о том, сколько времени уходит на анализ?

Это также повышение производительности, которое скоро будет освоено, что экономит 30-40% по сравнению с указанным выше временем. Это также может помочь.

Другие вопросы по тегам