Поисковая оптимизация сайта на Drupal’е

Главные вкладки

Аватар пользователя Emilio13 Emilio13 1 сентября 2008 в 22:37

Решил поделиться своим опытом в поисковой оптимизации сайтов работающих на Drupal'e. Статья будет интересна в первую очередь людям уже знающим основы SEO, но только начинающим делать сайты на Drupal’e. Ничего принципиально нового я не пишу, лишь в сжатом виде излагаю самые основные моменты.

К сожалению в стандратной комплектации возможности по оптимизации сайта под поисковики весьма скудные поэтому приходиться задействовать целый ряд дополнительных модулей.

Итак, поехали:

1. ЧПУ

В настройках сайта включаем «чистые» ссылки и устанавливаем модуль pathauto.
Теперь вместо уже приевшегося site.ru/node/ мы можем настроить формат путей для всех видов материалов на нашем сайте.
Но тут нас подстерегает другая проблема - дублирование контента из-за того что он доступен и по новому и по старому адресу.
Чтобы решить эту проблему ставим модуль Path Redirect и в настройках pathauto выставляем переключатель "Create a new alias. Redirect from old alias" и не забываем при изменении статьи снять галочку "Создавать синоним автоматически".

2. Мета теги

Чтобы иметь возможность прописать мета теги для каждой статьи ставим модуль nodewords. С его помощью для каждого материала можно прописать Description, Keyword, Geourl, Robots. Кроме того модуль предлагает еще массу полезных для сео-оптимизации фишек (типа глобальных ключевых слов и т.д.)

3. XML карта сайта

Если у вас большой сайт и вы хотите чтобы он побыстрее проиндексировался можно создать xml карту сайта с помощью модуля XML Sitemap.

4. Карта сайта для людей

Так же можно создать карту сайта для людей (или же создать страницу второго уровня со ссылками на все страницы сайта для Сапы) с помощью модуля Sitemap.

5. Убираем дублированный контент

В robots.txt добавляем строчки:
Disallow: /user/register?
Disallow: /user/login?
Disallow: /taxonomy/term*/feed
Disallow: /book/export/html
Disallow: /\*sort=
Disallow: *?sort=
Disallow: /\*size=

6. Использование разметки

Не забываем про теги h1-h4, strong, em, blockquote и т.д. Для h1-h4 нужно править шаблоны вашей темы, это уже очень индивидуально. Ну а для вставки strong, em, blockquote и т.д. пользуемся визуальным редактором (например bueditor или tinymce)

Читать оригинал статьи на моем блоге.

Комментарии

Аватар пользователя Scissors Scissors 2 сентября 2008 в 2:47

у меня несколько вопросов по поводу заголовков.
если на главной выводятся новости и используются заголовки h2,где обычно используется h1?
ставить на каждую новость заголовок уровня h1 это ведь тоже не правильно?!
вроде слышал что нужно использовать так < title >< h1>< /h1>< / title> не знаю насколько это правильно?!

Аватар пользователя penexe penexe 1 сентября 2008 в 23:27

чисто теоретически h1 доллжен быть один
например "авто новости" - заголовок h1
а дальше
"новый седан от бмв" - h2
"калина гумно" - h2
а на страницах нод заголовок новости будет h1 а важные моменты (подзаголовки новости) будут h2 и тд
но на практике лепят h1 на все что угодно Smile

Аватар пользователя Владимир Ситников Владимир Ситников 2 сентября 2008 в 8:19

"Emili013" wrote:
Чтобы решить эту проблему ставим модуль Path Redirect и в настройках pathauto выставляем переключатель "Create a new alias. Redirect from old alias" и не забываем при изменении статьи снять галочку "Создавать синоним автоматически".

Как я понял с последними версиями pathauto этот модуль уже не нужен. pathauto само создает редайрект...

Аватар пользователя Химический Али Химический Али 2 сентября 2008 в 9:29

h1 в title сипользовать неправильно - он там и отобрахится с тегами, без преобразований.
title должен содержать чистый plain text без разметки.

Использовать Hx в ссылках тоже неправильно. Заголовками оформляется сам текст, но не гиперссылки на него. H1 должен быть один - на странице с материалом, в самом верху.

Еще некоторые грешат обрамлением в H1 названия сайта на всех страницах. Это идеологически неверно.

Hx служат для разметки документов, но не для дизайна.

Аватар пользователя Zetver Zetver 2 сентября 2008 в 11:20

А чем отличаются конструкции вида
Disallow: /user/register?
Disallow: /user/login?
От тех, что вставлены в роботс по умолчанию???
Disallow: /user/register/
Disallow: /user/login/

Аватар пользователя Химический Али Химический Али 2 сентября 2008 в 12:00

"Zetver" wrote:
А чем отличаются конструкции вида
Disallow: /user/register?
Disallow: /user/login?
От тех, что вставлены в роботс по умолчанию???

тем же, чем /user/login отличается от /user/login/

Аватар пользователя Emilio13 Emilio13 11 сентября 2009 в 14:35

Wincert wrote:
А если вместо Path Redirect в robots.txt прописать Disallow: /node/?, просто Path Redirect нет для 6 версии друпала.

Сделав так вы конечно решите проблему дублированного контента, но в этом случае вы потеряете весь набранный старыми страницами вес (в глазах поисковиков), поэтому лучше для каждой страницы делать 301 редирект (со старой на новую).

Аватар пользователя Emilio13 Emilio13 11 сентября 2009 в 14:33

SkaTT wrote:
Disallow: /taxonomy/term*/feed

Поисковики таких конструкций не понимают =(


Яндекс помоему прекрасно понимает (проверял через webmaster.yandex.ru), насчет остальных не уверен, не проверял.

Аватар пользователя Ruslan413 Ruslan413 25 января 2010 в 5:56

Спасибо за столь полезную статью. Только вопрос: при использовании path redirect при заходе на материал по адресу вида node/15 должно автоматом редиректить на "человеческое имя" этой ноды? Или нет?

Просто вчера весь вечер настраивал эту связку, редиректить не хочет ни в какую:( Заранее спс!

Аватар пользователя LessonsLearned LessonsLearned 15 июня 2010 в 19:00

Подскажите, нужно ли делать "Disallow: /taxonomy/term/*"? Просто по ссылкам /taxonomy/term/* выводятся списки контента и он дублируется в глазах ПС... Sad

Аватар пользователя Shift-Web Shift-Web 17 июня 2010 в 0:40

"LessonsLearned" wrote:
Подскажите, нужно ли делать "Disallow: /taxonomy/term/*"? Просто по ссылкам /taxonomy/term/* выводятся списки контента и он дублируется в глазах ПС... :(

Сделайте описалово каждому термину внятное. Тока не переборщите это описалово упадёт в дескрипшн.

Аватар пользователя Kernel_panic Kernel_panic 15 сентября 2010 в 19:06

"Shift-Web" wrote:
Сделайте описалово каждому термину внятное. Тока не переборщите это описалово упадёт в дескрипшн.

То есть я ССЗБ если у меня вся таксономия закрыта дял поисковиков? На личном опыте написав дескрипшн к термину избавляет от дубляжа контента с точки зрения ПС? Просто меня давно мучает этот вопрос и если не сложно можете рассказать подробнее.

Аватар пользователя Shift-Web Shift-Web 16 сентября 2010 в 16:27

"Kernel_panic" wrote:
ССЗБ

Не понял значения аббревиатуры.

"Kernel_panic" wrote:
На личном опыте написав дескрипшн к термину избавляет от дубляжа контента с точки зрения ПС?

В определённом раскладе можно 2 одинаковые страницы вытащить по разным ключам. При этом под фильтры не попадут оба дубля.

"Kernel_panic" wrote:
вопрос и если не сложно можете рассказать подробнее.

Спросите конкретнее

Аватар пользователя Kernel_panic Kernel_panic 17 сентября 2010 в 7:42

"Kernel_panic" wrote:
ССЗБ

Сам Себе Злой Буратино

"Shift-Web" wrote:
Спросите конкретнее

Да я собственно все спросил. Хотел так сказать выслушать вообще общие домыслы и высказывания основанные на личном опыте. Когда появятся конкретные вопросы я спрошу.