Решил поделиться своим опытом в поисковой оптимизации сайтов работающих на Drupal'e. Статья будет интересна в первую очередь людям уже знающим основы SEO, но только начинающим делать сайты на Drupal’e. Ничего принципиально нового я не пишу, лишь в сжатом виде излагаю самые основные моменты.
К сожалению в стандратной комплектации возможности по оптимизации сайта под поисковики весьма скудные поэтому приходиться задействовать целый ряд дополнительных модулей.
Итак, поехали:
1. ЧПУ
В настройках сайта включаем «чистые» ссылки и устанавливаем модуль pathauto.
Теперь вместо уже приевшегося site.ru/node/ мы можем настроить формат путей для всех видов материалов на нашем сайте.
Но тут нас подстерегает другая проблема - дублирование контента из-за того что он доступен и по новому и по старому адресу.
Чтобы решить эту проблему ставим модуль Path Redirect и в настройках pathauto выставляем переключатель "Create a new alias. Redirect from old alias" и не забываем при изменении статьи снять галочку "Создавать синоним автоматически".
2. Мета теги
Чтобы иметь возможность прописать мета теги для каждой статьи ставим модуль nodewords. С его помощью для каждого материала можно прописать Description, Keyword, Geourl, Robots. Кроме того модуль предлагает еще массу полезных для сео-оптимизации фишек (типа глобальных ключевых слов и т.д.)
3. XML карта сайта
Если у вас большой сайт и вы хотите чтобы он побыстрее проиндексировался можно создать xml карту сайта с помощью модуля XML Sitemap.
4. Карта сайта для людей
Так же можно создать карту сайта для людей (или же создать страницу второго уровня со ссылками на все страницы сайта для Сапы) с помощью модуля Sitemap.
5. Убираем дублированный контент
В robots.txt добавляем строчки:
Disallow: /user/register?
Disallow: /user/login?
Disallow: /taxonomy/term*/feed
Disallow: /book/export/html
Disallow: /\*sort=
Disallow: *?sort=
Disallow: /\*size=
6. Использование разметки
Не забываем про теги h1-h4, strong, em, blockquote и т.д. Для h1-h4 нужно править шаблоны вашей темы, это уже очень индивидуально. Ну а для вставки strong, em, blockquote и т.д. пользуемся визуальным редактором (например bueditor или tinymce)
Читать оригинал статьи на моем блоге.
Комментарии
у меня несколько вопросов по поводу заголовков.
если на главной выводятся новости и используются заголовки h2,где обычно используется h1?
ставить на каждую новость заголовок уровня h1 это ведь тоже не правильно?!
вроде слышал что нужно использовать так < title >< h1>< /h1>< / title> не знаю насколько это правильно?!
чисто теоретически h1 доллжен быть один
например "авто новости" - заголовок h1
а дальше
"новый седан от бмв" - h2
"калина гумно" - h2
а на страницах нод заголовок новости будет h1 а важные моменты (подзаголовки новости) будут h2 и тд
но на практике лепят h1 на все что угодно
а правильно ли использовать h1 в < title >
Как я понял с последними версиями pathauto этот модуль уже не нужен. pathauto само создает редайрект...
h1 в title сипользовать неправильно - он там и отобрахится с тегами, без преобразований.
title должен содержать чистый plain text без разметки.
Использовать Hx в ссылках тоже неправильно. Заголовками оформляется сам текст, но не гиперссылки на него. H1 должен быть один - на странице с материалом, в самом верху.
Еще некоторые грешат обрамлением в H1 названия сайта на всех страницах. Это идеологически неверно.
Hx служат для разметки документов, но не для дизайна.
Можно к подшивке добавить, если автор не против
Я только за..
А чем отличаются конструкции вида
Disallow: /user/register?
Disallow: /user/login?
От тех, что вставлены в роботс по умолчанию???
Disallow: /user/register/
Disallow: /user/login/
тем же, чем /user/login отличается от /user/login/
А если вместо Path Redirect в robots.txt прописать Disallow: /node/?, просто Path Redirect нет для 6 версии друпала.
Сделав так вы конечно решите проблему дублированного контента, но в этом случае вы потеряете весь набранный старыми страницами вес (в глазах поисковиков), поэтому лучше для каждой страницы делать 301 редирект (со старой на новую).
Disallow: /taxonomy/term*/feed
Поисковики таких конструкций не понимают
Яндекс помоему прекрасно понимает (проверял через webmaster.yandex.ru), насчет остальных не уверен, не проверял.
А это тогда что? http://drupal.org/project/path_redirect
Спасибо за столь полезную статью. Только вопрос: при использовании path redirect при заходе на материал по адресу вида node/15 должно автоматом редиректить на "человеческое имя" этой ноды? Или нет?
Просто вчера весь вечер настраивал эту связку, редиректить не хочет ни в какую:( Заранее спс!
Подскажите, нужно ли делать "Disallow: /taxonomy/term/*"? Просто по ссылкам /taxonomy/term/* выводятся списки контента и он дублируется в глазах ПС...
Сделайте описалово каждому термину внятное. Тока не переборщите это описалово упадёт в дескрипшн.
То есть я ССЗБ если у меня вся таксономия закрыта дял поисковиков? На личном опыте написав дескрипшн к термину избавляет от дубляжа контента с точки зрения ПС? Просто меня давно мучает этот вопрос и если не сложно можете рассказать подробнее.
Не понял значения аббревиатуры.
В определённом раскладе можно 2 одинаковые страницы вытащить по разным ключам. При этом под фильтры не попадут оба дубля.
Спросите конкретнее
Сам Себе Злой Буратино
Да я собственно все спросил. Хотел так сказать выслушать вообще общие домыслы и высказывания основанные на личном опыте. Когда появятся конкретные вопросы я спрошу.
Запомнил, понравилось