Поисковая оптимизация

Главные вкладки

Аватар пользователя Jeremic Jeremic 19 июля 2006 в 8:24

Привет.
Поделитесь опытом, плиз. Какие приемы существуют в Друпале, для заточки его под поисковые систему,
в частности, интересует Яндекс. Что я имею ввиду: Интересны приемы разработки сайта
валидные страницы, организация контента, статические страницы, robots.txt и т.д.)

Ну если кто то поделится инфой или приемами по интернет-маркетингу, то тоже СПАСИБО!

З.Ы. Я если четсно не понимаю, как поисковая система индексирует Друпал, т.к. у
него вся инфа динамическая (по запросу достается из БД). Как в этом случае
ситуация разруливается??
Кстати, с динамическим контентом я поднял вопрос на Views & Search (поиск данных генерируемых модулем Views)

Заранее спс.

Комментарии

Аватар пользователя Maniac Maniac 19 июля 2006 в 13:48

Мне особенно понравился твой вопрос про динамический контент. Ответ на него прост - не парься по этому поводу, все в порядке с этим!

Аватар пользователя Maniac Maniac 20 июля 2006 в 12:53

потому что все CMS (так же и друпал) генерируют контент динамически (то есть вставляют в шаблон страницы данные из mysql-базы) - на выходе получается обычная html-страничка... Как всегда и былО...
Другое дело, что поисковики не любят, когда в пути страницы есть ? или id=xxx. ХХХ - это произвольное число (гугл, к примеру не индексит вообще, если встретил в адресе id=xxх)
Опять же другое дело, что динамический контент обычно подразумевает частую обновляемость, а рамблер ненавидит частообновляемые страницы (исключая только форумы).
Общирная очень тема эта... Я сделал путем небольшого тюнинга самого движка тем, настройки CSS, настройки шаблонов нод, а так же еще пары ухищрений заточку под Яндекс (просто с него больше трафика и под него понятно как затачивать)

Аватар пользователя Nick Nick 21 июля 2006 в 0:03

"Другое дело, что поисковики не любят, когда в пути страницы есть ? или id=xxx. ХХХ - это произвольное число (гугл, к примеру не индексит вообще, если встретил в адресе id=xxх)"
Бред: http://www.google.com/search?&q=inurl%3A%3Fid%3D123
(сами бы хоть проверили, так уверенно говорите)

Современные поисковики давно научились корректно обрабатывать url с параметрами для get запроса.

Аватар пользователя Jeremic Jeremic 20 июля 2006 в 14:25

Я тебе очень благодарен за ответы (потому как остальное русское Друпал коммьюнити вообще куда
то пропало :(, ничего не отвечают).
Расскажи, как ты сделал заточку под Яндекс, приемы, инфой которой пользовался.
Поделись опытом, пожалуйста.

Аватар пользователя Onza Onza 20 июля 2006 в 16:47

Какие приемы существуют в Друпале, для заточки его под поисковые систему, в частности, интересует Яндекс. Что я имею ввиду: Интересны приемы разработки сайта валидные страницы, организация контента, статические страницы, robots.txt и т.д.)
Ну если кто то поделится инфой или приемами по интернет-маркетингу, то тоже СПАСИБО!

Блин Lol Тема ахриненно обширная... Можно поизучать тонкости на спец. ресурсах, типа:

http://www.searchengines.ru/
http://searchengines.ru/forum/

http://seochase.com/

http://www.promoforum.ru/

http://www.umaxforum.com/

http://mastertalk.ru/

http://www.raskrutka.net/index.html

http://www.seoblog.biz/

И.т.п...

Ну и учебник по оптимизации сайта:
http://tutorial.semonitor.ru/

Вообще, много всякого. В двух словах не рассказать. Друпал сам по себе неплохо "заточен" под поисковики, и в этом плане там ничего переделывать не надо. Стоит использовать модуль nodewords, весьма облегчает работу с дескрипшенами, мета-тегами, кейвордами (правда они сейчас практически не важны, но хуже не станет). Один из главных принципов - продумать оптимизированную структуру сайта, например каждый раздел и страница - ключевой запрос или слово, и т.д. и соответственно тексты. А в robots.txt просто закрой все разделы и папки, которые не надо индексировать (типа tmp, user/login, и проч.) Что касается динамического контента, как уже сказали - забудь про это Smile включи ЧПУ и делай линки понятным образом и нормальными словами.

Аватар пользователя Jeremic Jeremic 20 июля 2006 в 17:36

Спс, поразбираюсь. Мне пока важно одно - делание сайта. На стадии разработки я должен сделать следующее:
1. Внятные сслыки (path, pathauto)
2. Ключевые слова (за модуль спасиба - не знал)
3. Небольшая настройка robots.txt

Onza, респект!

Аватар пользователя Maniac Maniac 21 июля 2006 в 23:27

Nick, я не совсем это имел ввиду, но опыт действительно был с таким однозначным выводом... Попробую найти подтверждение

Аватар пользователя Nick Nick 22 июля 2006 в 2:20

Примерно 1 790 000 проидексированных Гуглом страниц, у которых в url 'id=123' (а сколько еще с другими цифрами?) для вас не достаточное подтверждение, что все замечательно индексируется?
.
Возможно в вашем случае не индексировалось по какой-то другой причине (или, например, сайт не добавлялся, т.к. новый и попал в песочницу).
.
"Если у таракана оторвать ноги, то он не боиться звуков -- тараканы слышат ногами"...
.
"Nick, я [b]не совсем это имел ввиду[/b], но опыт действительно был с [b]таким[/b] однозначным выводом…" долго думал над смыслом этой фразы.

Аватар пользователя Maniac Maniac 22 июля 2006 в 17:41

я сам стормозил
во первых было не id, phpsessionid
во-вторых с ним все ок - http://www.google.com/search?hl=ru&c2coff=1&q=inurl%3A%3Fphpsessionid%3D...
в-третьих, была походу песочница
а насчет смысла фразы - давай вместе думать, может придумаем чо

Аватар пользователя SoL SoL (не проверено) 24 июля 2006 в 14:21

если будут индекситься страницы с ssid и т.п, то каждый раз бует в поиске страница с новым адресом, соответственно с нулевым PR и вИЦ'ем. Поэтому надо по любому ЧПУ использовать, иначе не видать первых мест..