Не нравятся ему переходу по страницам пейджера например. Но как бы то, что он добавил - не главное. Главное ему мешют дублирующие правила в существующем файле.
чтобы не было переходов по страницам пейджера, установите и настройте rel=canonical
так а как-то закэшировать эти данные, чтобы он каждый раз не обращался в БД? данные ведь не поменялись... а там например по крону пусть сбрасывается этот кэш
Как считаете, насколько сеошник прав в составлении robots.txt ?
чтобы не было переходов по страницам пейджера, установите и настройте rel=canonical
Facets + canonical url + "статический" урл
ознакомтесь - https://support.google.com/webmasters/answer/139066?hl=ru
при этом title страницы, description, текст раздела - остается такой же как и на https://site/tv/
Facets + canonical url + "статический" урл
Еще раз перечитайте текст который вы процитировали и ваше сообщение.
Вы сами себе противоречите.
вы хотите чтобы такие ссылки фильтров были в поиске?
Хостинг для сайта с 500 000 уников в месяц на Drupal 8 - личный опыт
Реклама хостера?
taxonomy_get_parents и 250 запросов к БД
так а как-то закэшировать эти данные, чтобы он каждый раз не обращался в БД? данные ведь не поменялись... а там например по крону пусть сбрасывается этот кэш
Переезд Drupal Commerce на HTTP/2 - реальные факты. Есть ли смысл?
Оно то понятно.
Я тоже много много читал теории, но это не то.
сейчас пока больше интересуют реальные результаты людей, их отзывы, подводные камни и подсказки по настройке.