real-man: Комментарии

Главные вкладки

10 марта 2019 в 17:37

Знаю что странная, но фильтрация магазина сделана для SEO через facets + pretypath +metatag facets. Категории, производители и еще несколько важных для поисковых запросов характеристики сделаны через таксономию выведенную в дальнейшем через фасеты. категория+ категория, как вы описали выше быть не может по настройкам, а вот категория+производитель+серия - да. В моей задаче нужно вывести описание, когда активен лишь один из фасетов, например категория, или производитель, что и усложняет задачу.

8 марта 2019 в 10:53

А как при этом настроить контекстные фильтры, которые определяли бы что этот фасет , отвечает за вот этот термин таксономии ? Taxonomy term id from url в данном случае не работает

23 января 2019 в 14:09

Пути к папке tmp пробовал по разному, и в корне сайта, и по предустановленным настройкам хостинга. Не помогает. Файл htaccess лежит, настройки php такие же, как и на других сайтах друпал которые лежать в этом аккаунте, только там все ок работает, а на этом сайте бог знает что.

23 января 2019 в 10:18

НЕ создаются превью стилей изображения, первым делом полез смотреть htaccess в default/files и заметил что хостинг ругается на то, что права на папку 555, а минимальные для правильной работы 750. Сайты на хостинге этом уже несколько лет лежат, раньше такого не замечал.

15 января 2019 в 9:25

Не нужно все термины характеристик делать в одном словаре. Создаете словарь Цвет - туда цвета добавляете, словарь Производитель - производителей и.т.д. Их будет много конечно, но это даст в будущем возможность эффективно продвигать сайт. Так, представим что нужно будет продвинуть запрос в будущем например: Наименование группы товаров+производитель+цвет, а у вас ввиду того, что категоризация сделана обычными текстовыми полями а не терминами, не будет такой страницы, со своими уникальными метаданными и ЧПУ.

14 января 2019 в 10:10
1

Таксономия лучше для фасетов тем, что их потом можно будет использовать для SEO. Facet Api + Facet API Pretty Paths +Metatag Taxonomy Facets = полно отличных посадочных страниц. С простыми полями так не сделаешь. А то потом когда после разработки доходит до SEO, оказывается что кроме страниц товара и продвигать то нечего, после различных решений разработчика.

14 января 2019 в 9:46

А какие типы полей ? Таксономия, текст ? Для фасетов сразу лучше на таксономии делать поля. Проблема с разными вариантами можно решить например создав не очередной тип товара, а поле (таксономия или выпадающий список) тип товара, которому привязать зависимость полей через модуль Conditional Fields. То есть, при выборе поля тип товара появляется один набор полей, при выборе другого - другой. Как вариант.

11 января 2019 в 16:46

Нашел то что нужно, может кому тоже пригодится. https://www.drupal.org/project/search_api_saved_searches Правда тоже внешний вид и некоторый функционал стоит дорабатывать, но функционал выполняет!

19 ноября 2018 в 15:46

Вы так яро по все постам в этом разделе пошли комментарии оставлять, что сложилось впечатление, что Вы их даже не читали, лишь бы написать что. Прошу прощения если чем задел.

19 ноября 2018 в 15:30

Мда.. учиться Вам батенька еще и учиться. Не стоит комментировать все подряд посты только ради того, чтобы себе историю заработать, а то с самого начала себе репутацию не ту заработаете

30 октября 2018 в 17:26

Может и достаточно будет, на усмотрение робота, но по рекомендациям того же Гула пагинацию желательно отмечать еще и next - prev. И ценность открытой пагинации не в том, чтобы ноды там индексировались (для этого сайтмап лучше использовать), а в передаче веса всех существующих страниц пагинации на главную страницу сайта\категории где представлена эта пагинация.

30 октября 2018 в 17:16

Можно вставить как написали выше [node:summary] в настройках модуля metatag, а в типе материала, ограничить вывод анонса 150 символами ( [node:summary] выводит именно анонс материала)

30 октября 2018 в 9:24

Не пишите ерунду и не вводите людей в заблуждение. Роботс для мультисайтинга можно настроить и без модуля (пример), a Host уже не используется поисковиками. Роботс указанный вами в примере мягко говоря не очень.

PS, Crawl-delay: 10 - это во первых дофига, во вторых ее тоже поисковики игнорируют уже из-за типичных неверных настроек юзерами.