Здраствуйте, подскажите пожалуйста кто знает решение! Проблема индексации.
1)У меня в выдаче гугла, если взять определённый текст с любой ноды выводится в 2 урлах, гавная страница и сама нода, в добавок еще и таксономия! Хочется, что бы этого не было.
2)В панеле гугла, Оптимизация HTML=> Страницы с повторяющимися заголовками (теги title) (касается таксономии) Выводятся дубли заголовков
Например:
лазерные струны | золотая рояль
/taxonomy/term/53
/taxonomy/term/53?page=1
/taxonomy/term/53?page=2
/taxonomy/term/53?page=3
/taxonomy/term/53?page=4
/taxonomy/term/53?page=5
/taxonomy/term/53?page=6
/taxonomy/term/53?page=7
Как этого избежать? К примеру, если добавить описание для термина(таксономии) появится в добавок дубль описания, раннее было его я убрал.
Помогите пожалуйста разобраться.
Комментарии
Meta tags
И как он может помочь, во втором вопросе? Вы примерно хоть понимаете?
Респект, очень тепло.
пасавто незнаю что это, у меня вкл. модуль глобалредирект, ЧПУ не включаю, таксономию убита намертво. Чистые сылки включены.
Меня тревожат дубли нод и главной страницы, например беру часть текста с ноды ввожу в поиске гугла и уменя в выдаче главная страница и нода, да не спорю можно роботсом всё перекрыть, но трафик теряется. После того как в робот перекрыл таксономию трафик просел с 700 хостов на 120. если ввести ЧПУ получится тоже самое, снипет материала как главная так и нода.
Дескрипшен писать для всего думаю кудряво будет, так как при большом количестве нод начиная от 1000 страниц появится дублёж одназначно и потом тупик, так же вебмастер гугла ругается если описывать дескрипшен таксономии, например это /taxonomy/term/123?page=1 и это /taxonomy/term/123 описание одинаковое считает дублем.
Как делают большие сайты на друпале с множеством таксономии и нод, это прямой вопрос!!! Искючая дубли и сохраняя максимальный трафик, прямой вопрос, кто знает ответ!?
Я намекал на то, что он добавит вам
<link rel="canonical" href="…" />
Но сейчас замети в тегах шестёрку. Так что тут только robots.txt.
Disallow: /*?page=*
Каноническая сылка нужна лишь при вкл. ЧПУ, я не включал...А это добавлю в роботс, спасибо.
А вот Девака недавно писал, что файл роботс не исключает из индекса http://devaka.ru/articles/robots.txt
В случае с шестой версией Drupal выбирать не приходится.
С Яндексом проблем нет. Он всё, что запрещено в robots.txt исключает из индекса.
С помощью www.google.com/webmasters/tools можно удалить ненужные страницы, если в robots.txt есть запрещающее их правило. Они могут появиться вновь, но всегда будут в самом конце поисковой выдачи гугла, если поиск по сайту. Если поиск по Интернету, то они не появляются.
Поисковые системы сливают зеркала страниц самостоятельно. Им на это нужно время. Большим сайтам, имеющим трафик с поисковика, на это времени надо чуть меньше, маленьким сайтам чуть больше. Попробуйте подождать.
Что касается главной. Если у вас на ней выводится много нод, которые вы не хотите индексировать отдельно. То поставьте Node noindex и в настройках типа материала появятся настройки модуля. Включите “Включить noindex по умолчанию” и материалы этого типа перестанут индексироваться.
Понятно, значит я просто жадно смотрю на это...Я почему то думал, если сайт большой то и посещаемость выше) Раньше было 1000-1200 хостов с гугла, теперь всего 120 с гугла и АГС яши. Спасибо!
А если disallow: /*?page=* только морда в выдачу попадёт другие страницы главной нет?
Возможно со временем установлю этот модуль и поставлю запрет на все ноды т.к. таксономия более релевантнее в выдаче, спасибо.
Вечная делема трафик или посититель...
Если есть кому что-то добавить, откройте свой секрет! Всем искренне блогодарен за поддержку и помощь.
Не понял?
"Морда"-это главная страница сайта.
Я наверно сам, что то нито спросил, этот запрет для таксономии верно?
Это правило запретит все url сайта содержащие ?page=
robots.txt
Спасибо, за помощь, буду эксперементировать!