robots.txt для многоязычных сайтов

Главные вкладки

Аватар пользователя Happy Smile Happy Smile 13 апреля 2019 в 11:18

Всем привет! У меня сайт на трех языках:

украинский
Российская
Английский

Домены такого типа:

site.com/uk
site.com/ru
site.com/en

Главная язык Украинский и контент на украинском может отображаться по двум путям:

site.com/uk/node_1
site.com/node_1

На русском и английском языке контент отображается только так:

site.com/ru/node_1
site.com/en/node_1

Вопрос - для многоязычного сайта хватит стандартного robots.txt, или там нужно что-то дописывать?

P.S. также я заметила на других сайтах robots.txt, что часто стали появляться следуюoщие строки сверху
User-agent: Mediapartners-Google
Disallow:

Почитала о них и все что поняла, это что гуглю можно все сканировать. Хорошо ли это ставить вообще у себя в настройках robots.txt?

Комментарии

Аватар пользователя Happy Smile Happy Smile 14 апреля 2019 в 11:11

Я там немного не понимаю - в стандартном файле Drupal robots.txt есть что нельзя сканировать и что нужно принудительно сканировать: # CSS, JS, Images Allow: /misc/*.css$...

А остальной контент потом сканируется, или как оно работает ?
или просто будет правильнее удалить все Allow: /misc/*.css$... и оставить то чего нельзя сканировать ?