При разбиении списка материалов на страницы, после добавления новых материалов, информация постоянно сдвигается и по старой ссылке ее уже не найти.
То есть:
Сначала нода XXX была по адресу http://drupal.ru/news?page=2
Добавили новую ноду и XXX сдвинулась: http://drupal.ru/news?page=3
Думаю для поисковиков это не есть гут.
Возможно переделать модуль pager для того чтобы номера ссылок на страницы нумеровались в обратном порядке:
http://drupal.ru/news?page= 0, 10,9,8,7,6,5,4,3,2,1
Но в этом случае все равно ноды будут скакать по страницам:
Например на последней странице №1 сначала будет одна последняя нода, предпоследняя нода будет на странице №2.
Затем при добавлении в список новой ноды предпоследняя нода передвинется на страницу №1.
Это тоже не хорошо.
Предлагаю модифицировать модуль pager так, чтобы все страницы были полностью заполнены, а одна из страниц имела переменное количество нод.
То есть на страницах http://drupal.ru/news?page= 10,9,8,7,6,5,4,3,2,1 - по 10 нод
А на начальной странице http://drupal.ru/news?page= 0 - от 10 до 19 нод,
Когда на начальной странице становится 20 нод, создается страница http://drupal.ru/news?page=11 и лишние 10 нод перекидываются туда.
Можно через gmap сообщить гуглу что добавилсь страница http://drupal.ru/news?page=11 и изменилась страница http://drupal.ru/news?page=0.
После этого страницы http://drupal.ru/news?page=11,10,9,8,7,6,5,4,3,2,1 уже не будут изменяться, и все ноды будут на своих страницах.
Комментарии
На самом деле это не кардинальная проблема. Точнее, проблема не в изменяемых из-за пейджинга ссылках. Ибо материалы имеют свой уникальный урл (../node/123), а упоминаемые страницы - это оглавление материалов. Проблема на самом деле в отношении скоростей "соскальзивания" материалов на следующую страницу пейджинга и частоте и скорости обхода сайта поисковым роботом. Т.е. если, к примеру, частота обхода сайта (говорю упрощенно) роботом - две-три недели, а динамика публикаций материалов такова, что за это время материал успеет "уйти" на две три страницы "в глубь" пейджинга, то он вполне может попасть в "мертвую зону" тормознутого робота (т.е. робот не выявит страниц со ссылками на материал и, следовательно, в обходе следующего уровня эти материалы не найдет).
Нормальные поисковики вообще-то подстраиваются под динамику или, по крайней мере, декларируют зависимость обходов от динамики обновления. По видимому, здесь играет роль и степень аутентичности (уникальности) публикуемых материалов (но это мои догадки).
Вообще-то с гуглом и яхо проблем быть не должно. Они достаточно активно скрайбят сайт. У меня, при 2-3 публикациях в день, постоянно открыто 10-12 сессий Яхо, 2-3 сессии Гугла, а вот с Яндексом - беда, редкий и дорогой гость.