Привет.
Поделитесь опытом, плиз. Какие приемы существуют в Друпале, для заточки его под поисковые систему,
в частности, интересует Яндекс. Что я имею ввиду: Интересны приемы разработки сайта
валидные страницы, организация контента, статические страницы, robots.txt и т.д.)
Ну если кто то поделится инфой или приемами по интернет-маркетингу, то тоже СПАСИБО!
З.Ы. Я если четсно не понимаю, как поисковая система индексирует Друпал, т.к. у
него вся инфа динамическая (по запросу достается из БД). Как в этом случае
ситуация разруливается??
Кстати, с динамическим контентом я поднял вопрос на Views & Search (поиск данных генерируемых модулем Views)
Заранее спс.
Комментарии
Мне особенно понравился твой вопрос про динамический контент. Ответ на него прост - не парься по этому поводу, все в порядке с этим!
Ну пасиба, Maniac, обнадежил. Но, что то без аргументов верится с трудом. Аргументируй, плиз.
потому что все CMS (так же и друпал) генерируют контент динамически (то есть вставляют в шаблон страницы данные из mysql-базы) - на выходе получается обычная html-страничка... Как всегда и былО...
Другое дело, что поисковики не любят, когда в пути страницы есть ? или id=xxx. ХХХ - это произвольное число (гугл, к примеру не индексит вообще, если встретил в адресе id=xxх)
Опять же другое дело, что динамический контент обычно подразумевает частую обновляемость, а рамблер ненавидит частообновляемые страницы (исключая только форумы).
Общирная очень тема эта... Я сделал путем небольшого тюнинга самого движка тем, настройки CSS, настройки шаблонов нод, а так же еще пары ухищрений заточку под Яндекс (просто с него больше трафика и под него понятно как затачивать)
"Другое дело, что поисковики не любят, когда в пути страницы есть ? или id=xxx. ХХХ - это произвольное число (гугл, к примеру не индексит вообще, если встретил в адресе id=xxх)"
Бред: http://www.google.com/search?&q=inurl%3A%3Fid%3D123
(сами бы хоть проверили, так уверенно говорите)
Современные поисковики давно научились корректно обрабатывать url с параметрами для get запроса.
Я тебе очень благодарен за ответы (потому как остальное русское Друпал коммьюнити вообще куда
то пропало :(, ничего не отвечают).
Расскажи, как ты сделал заточку под Яндекс, приемы, инфой которой пользовался.
Поделись опытом, пожалуйста.
Какие приемы существуют в Друпале, для заточки его под поисковые систему, в частности, интересует Яндекс. Что я имею ввиду: Интересны приемы разработки сайта валидные страницы, организация контента, статические страницы, robots.txt и т.д.)
Ну если кто то поделится инфой или приемами по интернет-маркетингу, то тоже СПАСИБО!
Блин Тема ахриненно обширная... Можно поизучать тонкости на спец. ресурсах, типа:
http://www.searchengines.ru/
http://searchengines.ru/forum/
http://seochase.com/
http://www.promoforum.ru/
http://www.umaxforum.com/
http://mastertalk.ru/
http://www.raskrutka.net/index.html
http://www.seoblog.biz/
И.т.п...
Ну и учебник по оптимизации сайта:
http://tutorial.semonitor.ru/
Вообще, много всякого. В двух словах не рассказать. Друпал сам по себе неплохо "заточен" под поисковики, и в этом плане там ничего переделывать не надо. Стоит использовать модуль nodewords, весьма облегчает работу с дескрипшенами, мета-тегами, кейвордами (правда они сейчас практически не важны, но хуже не станет). Один из главных принципов - продумать оптимизированную структуру сайта, например каждый раздел и страница - ключевой запрос или слово, и т.д. и соответственно тексты. А в robots.txt просто закрой все разделы и папки, которые не надо индексировать (типа tmp, user/login, и проч.) Что касается динамического контента, как уже сказали - забудь про это включи ЧПУ и делай линки понятным образом и нормальными словами.
Спс, поразбираюсь. Мне пока важно одно - делание сайта. На стадии разработки я должен сделать следующее:
1. Внятные сслыки (path, pathauto)
2. Ключевые слова (за модуль спасиба - не знал)
3. Небольшая настройка robots.txt
Onza, респект!
Nick, я не совсем это имел ввиду, но опыт действительно был с таким однозначным выводом... Попробую найти подтверждение
Примерно 1 790 000 проидексированных Гуглом страниц, у которых в url 'id=123' (а сколько еще с другими цифрами?) для вас не достаточное подтверждение, что все замечательно индексируется?
.
Возможно в вашем случае не индексировалось по какой-то другой причине (или, например, сайт не добавлялся, т.к. новый и попал в песочницу).
.
"Если у таракана оторвать ноги, то он не боиться звуков -- тараканы слышат ногами"...
.
"Nick, я [b]не совсем это имел ввиду[/b], но опыт действительно был с [b]таким[/b] однозначным выводом…" долго думал над смыслом этой фразы.
интересная тема. спасибо..
я сам стормозил
во первых было не id, phpsessionid
во-вторых с ним все ок - http://www.google.com/search?hl=ru&c2coff=1&q=inurl%3A%3Fphpsessionid%3D...
в-третьих, была походу песочница
а насчет смысла фразы - давай вместе думать, может придумаем чо
Да, вот еще пара страничек с общими советами, лаконично, без мути и воды:
http://bespredel.biz/archives/31
http://www.zipsites.ru/mine/article/naidi_menya/
Спасибо, всем кто развивал эту тему! Полезная инфа))
если будут индекситься страницы с ssid и т.п, то каждый раз бует в поиске страница с новым адресом, соответственно с нулевым PR и вИЦ'ем. Поэтому надо по любому ЧПУ использовать, иначе не видать первых мест..