Дубль текст в выдаче гугла

Главные вкладки

Аватар пользователя avast@ avast@ 25 марта 2013 в 19:10

Здраствуйте, подскажите пожалуйста кто знает решение! Проблема индексации.
1)У меня в выдаче гугла, если взять определённый текст с любой ноды выводится в 2 урлах, гавная страница и сама нода, в добавок еще и таксономия! Хочется, что бы этого не было.
2)В панеле гугла, Оптимизация HTML=> Страницы с повторяющимися заголовками (теги title) (касается таксономии) Выводятся дубли заголовков
Например:
лазерные струны | золотая рояль
/taxonomy/term/53
/taxonomy/term/53?page=1
/taxonomy/term/53?page=2
/taxonomy/term/53?page=3
/taxonomy/term/53?page=4
/taxonomy/term/53?page=5
/taxonomy/term/53?page=6
/taxonomy/term/53?page=7
Как этого избежать? К примеру, если добавить описание для термина(таксономии) появится в добавок дубль описания, раннее было его я убрал.
Помогите пожалуйста разобраться.

Комментарии

Аватар пользователя avast@ avast@ 26 марта 2013 в 17:02

qwiste wrote:
ви што стибётесь?
robots.txt для начала было бы неплохо.
я бы вообше убил таксономию: disallow /taxonomy/*
disallow /taxonomy
даже вот так на всякий

вы ведь пользуетесь пасавтой надеюсь?

Респект, очень тепло.
пасавто незнаю что это, у меня вкл. модуль глобалредирект, ЧПУ не включаю, таксономию убита намертво. Чистые сылки включены.
Меня тревожат дубли нод и главной страницы, например беру часть текста с ноды ввожу в поиске гугла и уменя в выдаче главная страница и нода, да не спорю можно роботсом всё перекрыть, но трафик теряется. После того как в робот перекрыл таксономию трафик просел с 700 хостов на 120. если ввести ЧПУ получится тоже самое, снипет материала как главная так и нода.

Дескрипшен писать для всего думаю кудряво будет, так как при большом количестве нод начиная от 1000 страниц появится дублёж одназначно и потом тупик, так же вебмастер гугла ругается если описывать дескрипшен таксономии, например это /taxonomy/term/123?page=1 и это /taxonomy/term/123 описание одинаковое считает дублем.

Как делают большие сайты на друпале с множеством таксономии и нод, это прямой вопрос!!! Искючая дубли и сохраняя максимальный трафик, прямой вопрос, кто знает ответ!?

Аватар пользователя DD 85 DD 85 26 марта 2013 в 2:43

Я намекал на то, что он добавит вам <link rel="canonical" href="…" />
Но сейчас замети в тегах шестёрку. Так что тут только robots.txt.
Disallow: /*?page=*

Аватар пользователя avast@ avast@ 26 марта 2013 в 16:49

DD 85 wrote:
Я намекал на то, что он добавит вам <link rel="canonical" href="…" />
Но сейчас замети в тегах шестёрку. Так что тут только robots.txt.
Disallow: /*?page=*

Каноническая сылка нужна лишь при вкл. ЧПУ, я не включал...А это добавлю в роботс, спасибо.

Аватар пользователя avast@ avast@ 26 марта 2013 в 17:06

jerboa7 wrote:
А вот Девака недавно писал, что файл роботс не исключает из индекса http://devaka.ru/articles/robots.txt[/quote]
Интересует Яндекс. Таксономия в гугле была, выставил запрет и через неделю нет ниодной в выдаче и нет заходов по ним.

Аватар пользователя DD 85 DD 85 26 марта 2013 в 14:16

В случае с шестой версией Drupal выбирать не приходится.
С Яндексом проблем нет. Он всё, что запрещено в robots.txt исключает из индекса.
С помощью www.google.com/webmasters/tools можно удалить ненужные страницы, если в robots.txt есть запрещающее их правило. Они могут появиться вновь, но всегда будут в самом конце поисковой выдачи гугла, если поиск по сайту. Если поиск по Интернету, то они не появляются.

Аватар пользователя DD 85 DD 85 26 марта 2013 в 17:21

"avast@" wrote:
Как делают большие сайты на друпале с множеством таксономии и нод, это прямой вопрос!!! Искючая дубли и сохраняя максимальный трафик, прямой вопрос, кто знает ответ!?

Поисковые системы сливают зеркала страниц самостоятельно. Им на это нужно время. Большим сайтам, имеющим трафик с поисковика, на это времени надо чуть меньше, маленьким сайтам чуть больше. Попробуйте подождать.

Аватар пользователя DD 85 DD 85 26 марта 2013 в 17:32

"avast@" wrote:
Меня тревожат дубли нод и главной страницы, например беру часть текста с ноды ввожу в поиске гугла и уменя в выдаче главная страница и нода

Что касается главной. Если у вас на ней выводится много нод, которые вы не хотите индексировать отдельно. То поставьте Node noindex и в настройках типа материала появятся настройки модуля. Включите “Включить noindex по умолчанию” и материалы этого типа перестанут индексироваться.

Аватар пользователя avast@ avast@ 26 марта 2013 в 18:59

DD 85 wrote:
"avast@" wrote:
Меня тревожат дубли нод и главной страницы, например беру часть текста с ноды ввожу в поиске гугла и уменя в выдаче главная страница и нода

Что касается главной. Если у вас на ней выводится много нод, которые вы не хотите индексировать отдельно. То поставьте Node noindex и в настройках типа материала появятся настройки модуля. Включите “Включить noindex по умолчанию” и материалы этого типа перестанут индексироваться.

Понятно, значит я просто жадно смотрю на это...Я почему то думал, если сайт большой то и посещаемость выше) Раньше было 1000-1200 хостов с гугла, теперь всего 120 с гугла и АГС яши. Спасибо!
А если disallow: /*?page=* только морда в выдачу попадёт другие страницы главной нет?

Возможно со временем установлю этот модуль и поставлю запрет на все ноды т.к. таксономия более релевантнее в выдаче, спасибо.
Вечная делема трафик или посититель...

Если есть кому что-то добавить, откройте свой секрет! Всем искренне блогодарен за поддержку и помощь.

Аватар пользователя avast@ avast@ 27 марта 2013 в 9:56

DD 85 wrote:
"avast@" wrote:
А если disallow: /*?page=* только морда в выдачу попадёт другие страницы главной нет?

Не понял?

"Морда"-это главная страница сайта.
Я наверно сам, что то нито спросил, этот запрет для таксономии верно?