roadcontrol: Блог

Главные вкладки

Drupal не хватает 300 мб ОЗУ. В чем может быть проблема?

7 декабря 2009 в 1:47

В общем такая ситуация. Переехал на VPS. Изначально конфиг был такой Проц 400 MHz и 256 RAM

Поставил я туда 5 сайтов на друпале. 4 сайта практически без посещаемости (не влияют на нагрузку). 1 сайт имеет посещаемость примерно 2000 человек в сутки.

Сразу мне начало не хватать памяти. В нормальном состоянии было свободно примерно 40-50 мб ОЗУ...и часто стало появляться вот такое:

Мне увеличили память. Сейчас почти 300 мб ОЗУ... теперь такая ошибка вылазит редко...но вылазит.

Что я заметил. В нормальном состоянии, что днем, что ночью (то есть в независимости от посещаемости) свободно примерно 80-100 мб ОЗУ..бывает цифра падает до 70..60..50...но как правило находится в районе 90... Но..в какой то момент резко становится 0 (!) свободной ОЗУ... в какой то миг сжирает всю оперативку. Длится может это как пару секунд так и 10-20 секунд...далее резко все освобождается и вновь свободно 90 МБ...процессор особо не грузится..просто каким то чудесным образом сжирается вся оперативка.

Следовательно вопрос, должно ли хватать Друпалу таких ресурсов? И почему бывает такой резкий жор памяти? Может кто то сталкивался с пободным?

Дублирование контента. Как бороться со ссылкой типа node/440?page=1

5 декабря 2009 в 3:37

У меня под каждой страницей разрешено размещать не более 10 комментариев. Если это число будет превышено - то автоматически создается вторая страница и т.д.

Получается если у статьи 50 комментариев, то будет 5 страниц такого типа:

http://сайт/node/440?page=1
http://сайт/node/440?page=2
и т.д

Так вот... Google индексирует такие страницы и воспринимает как дублирование контента. Например я написал классную статью, которая была много раз перепечатана. Сначала я был на первом месте в поисковике если вбивать название статьи..и вот только что обнаружил что уже на десятом...Гугл проиндексировал страницы 440?page=1, 440?page=2 и т.д..и выдал их в поиск, а главную..почему то нет. Он посчитал что поскольку контент дублируется..то и понизил меня в выдаче...

Целый вечер искал решение проблемы...на этом сайте ничего не нашел...немного говорили об этом на иностранных сайтах...в общем пока что я в robot.txt добавил такую строку:

Disallow: /node/*?page=*

Правильно ли я поступил? И есть ли еще более оптимальные решения данной проблемы?