Улучшение производительности разбора Арго
В тестировании с Swift 2.1 производительность синтаксического анализа Argo была особенно низкой.
У меня есть модель, User
это имеет 20 полей. Некоторые из них являются коллекциями. Должен ли я попытаться разбить это дальше?
1 ответ
Я не думаю, что размер вашей модели занимает много времени. Мы заметили, что большие блоки JSON могут занимать время для анализа и декодирования. В репозитории github ( https://github.com/thoughtbot/Argo) есть 2 теста производительности, которые анализируют и декодируют файл JSON объемом 4,6 МБ. Их производительность в настоящее время в основной ветке составляет около 2,5 секунд каждая, что может составлять 5 секунд общего времени.
Есть ли у вас какие-либо цифры о размере JSON, который вы получаете, или о том, сколько времени уходит на анализ?
Это также повышение производительности, которое скоро будет освоено, что экономит 30-40% по сравнению с указанным выше временем. Это также может помочь.