Всем привет! У меня сайт на трех языках:
Российская
Английский
Домены такого типа:
site.com/ru
site.com/en
Главная язык Украинский и контент на украинском может отображаться по двум путям:
site.com/node_1
На русском и английском языке контент отображается только так:
site.com/en/node_1
Вопрос - для многоязычного сайта хватит стандартного robots.txt, или там нужно что-то дописывать?
P.S. также я заметила на других сайтах robots.txt, что часто стали появляться следуюoщие строки сверху
User-agent: Mediapartners-Google
Disallow:
Почитала о них и все что поняла, это что гуглю можно все сканировать. Хорошо ли это ставить вообще у себя в настройках robots.txt?
Комментарии
Да, хватит стандартного.
По поводу гугла - https://support.google.com/webmasters/answer/1061943?hl=ru - в конце статьи объясняется что это и как этим пользоваться.
Я там немного не понимаю - в стандартном файле Drupal robots.txt есть что нельзя сканировать и что нужно принудительно сканировать: # CSS, JS, Images Allow: /misc/*.css$...
А остальной контент потом сканируется, или как оно работает ?
или просто будет правильнее удалить все Allow: /misc/*.css$... и оставить то чего нельзя сканировать ?