Дорожный контроль
Вот мой сайт: http://roadcontrol.org.ua/
Прошу оценить
Вот мой сайт: http://roadcontrol.org.ua/
Прошу оценить
В общем такая ситуация. Переехал на VPS. Изначально конфиг был такой Проц 400 MHz и 256 RAM
Поставил я туда 5 сайтов на друпале. 4 сайта практически без посещаемости (не влияют на нагрузку). 1 сайт имеет посещаемость примерно 2000 человек в сутки.
Сразу мне начало не хватать памяти. В нормальном состоянии было свободно примерно 40-50 мб ОЗУ...и часто стало появляться вот такое:
Мне увеличили память. Сейчас почти 300 мб ОЗУ... теперь такая ошибка вылазит редко...но вылазит.
Что я заметил. В нормальном состоянии, что днем, что ночью (то есть в независимости от посещаемости) свободно примерно 80-100 мб ОЗУ..бывает цифра падает до 70..60..50...но как правило находится в районе 90... Но..в какой то момент резко становится 0 (!) свободной ОЗУ... в какой то миг сжирает всю оперативку. Длится может это как пару секунд так и 10-20 секунд...далее резко все освобождается и вновь свободно 90 МБ...процессор особо не грузится..просто каким то чудесным образом сжирается вся оперативка.
Следовательно вопрос, должно ли хватать Друпалу таких ресурсов? И почему бывает такой резкий жор памяти? Может кто то сталкивался с пободным?
У меня под каждой страницей разрешено размещать не более 10 комментариев. Если это число будет превышено - то автоматически создается вторая страница и т.д.
Получается если у статьи 50 комментариев, то будет 5 страниц такого типа:
http://сайт/node/440?page=1
http://сайт/node/440?page=2
и т.д
Так вот... Google индексирует такие страницы и воспринимает как дублирование контента. Например я написал классную статью, которая была много раз перепечатана. Сначала я был на первом месте в поисковике если вбивать название статьи..и вот только что обнаружил что уже на десятом...Гугл проиндексировал страницы 440?page=1, 440?page=2 и т.д..и выдал их в поиск, а главную..почему то нет. Он посчитал что поскольку контент дублируется..то и понизил меня в выдаче...
Целый вечер искал решение проблемы...на этом сайте ничего не нашел...немного говорили об этом на иностранных сайтах...в общем пока что я в robot.txt добавил такую строку:
Disallow: /node/*?page=*
Правильно ли я поступил? И есть ли еще более оптимальные решения данной проблемы?