Ребята, ни у кого не возникало проблем с памятью при работе с ооочень толстыми древовидными словарями таксономии?
Сайт хостится на ит-патруле, при вызове функции taxonomy_get_tree вылетает 500 ошибка. Выбираю только один уровень дерева, максимум 100 записей. В логах написано, что не хватает памяти. Логика подсказывает, что нужно отдать больше памяти для скрипта, но саппорт активно упирается и футболит.
Кто нибудь сталкивался с такой проблемой? Как можно оптимизировать таксономию?
Закешировать словарь?
экономить память в taxonomy_get_tree?
конечно же, понимаю, что лазить в ядро не по фен шую, ну а чё делать, если такие дела?
dafuq?!?
Комментарии
taxonomy_get_tree очень прожорливая функция. изучайте советы бывалых, вы не первый
но зато с её помощью можно получить глубину термина в дереве выбранного словаря .с помощью какой еще ф-ции можно перебрать все термины с нужной глубиной?
написать свою с блэкджеком и кэшем