Мультисайтинг через симлинки, в чем минусы?

Главные вкладки

Аватар пользователя qwert123 qwert123 4 августа 2014 в 8:31

У стандартного мультисайтинга в друпале есть минусы - это единые файлы robots.txt и htaccess, проблемы с верификацией сайта. Хоть они и имеют решения но это как костыли выглядит. Хочется чтобы у каждого сайта была своя директория корневая куда можно закинуть индивидуальный файл.

Выход - организация через симлинки, т.е. имеем доменные директории как обычные отдельные сайты, просто ядро которое нужно обновлять сделано ссылками на основной сайт, этот метод описан тут http://drupalace.ru/lesson/multisaiting Еще небольшой плюс такого метода в том что проще бэкапить и восстанавливать конкретный сайт. Есть ли минусы у такого метода?

Комментарии

Аватар пользователя sanita sanita 6 августа 2014 в 3:11

qwert123 wrote:
У стандартного мультисайтинга в друпале есть минусы - это единые файлы robots.txt и htaccess, проблемы с верификацией сайта. Хоть они и имеют решения но это как костыли выглядит. Хочется чтобы у каждого сайта была своя директория корневая куда можно закинуть индивидуальный файл.

Robots.txt делаем одноименным модулем для каждого сайта свой.

htaccess да, общий - но это не мешает в нем прописать что надо для каждого отдельного сайта.

Верификацию не помню как делала, кажется через файлы, которые ложила в общую корневую директорию.

"Своя индивидуальная директория" у каждого сайта есть - site/moisait/*

Все, что в site/all - относится ко всем сайтам и обновляется "в один присест".

Навешайте хоть 100 сайтов, хоть 200 Biggrin Главное, чтобы сервер потянул.

qwert123 wrote:

Выход - организация через симлинки

Не вижу большой разницы, кроме потенциального гемора, если надо будет перенести на другой хостинг.

Аватар пользователя qwert123 qwert123 6 августа 2014 в 8:33

sanita wrote:
qwert123 wrote:
У стандартного мультисайтинга в друпале есть минусы - это единые файлы robots.txt и htaccess, проблемы с верификацией сайта. Хоть они и имеют решения но это как костыли выглядит. Хочется чтобы у каждого сайта была своя директория корневая куда можно закинуть индивидуальный файл.

Robots.txt делаем одноименным модулем для каждого сайта свой.

htaccess да, общий - но это не мешает в нем прописать что надо для каждого отдельного сайта.

Верификацию не помню как делала, кажется через файлы, которые ложила в общую корневую директорию.

"Своя индивидуальная директория" у каждого сайта есть - site/moisait/*

Все, что в site/all - относится ко всем сайтам и обновляется "в один присест".

Навешайте хоть 100 сайтов, хоть 200 Biggrin Главное, чтобы сервер потянул.

qwert123 wrote:

Выход - организация через симлинки

Не вижу большой разницы, кроме потенциального гемора, если надо будет перенести на другой хостинг.

по роботс.тхт и верификации проблем нет и информации много, а как сделать индивидуальные записи в .htaccess для конкретного домена?

Аватар пользователя sanita sanita 6 августа 2014 в 12:58

qwert123 wrote:
как сделать индивидуальные записи в .htaccess для конкретного домена?

Что именно вы хотите указывать для каждого отдельного сайта?
Ну, например

RewriteCond %{HTTP_HOST} ^(www.)?sait1.com$ [NC]
RewriteRule [zdesj-pishem-pravilo]

Аватар пользователя qwert123 qwert123 7 августа 2014 в 6:42

sanita wrote:
qwert123 wrote:
как сделать индивидуальные записи в .htaccess для конкретного домена?

Что именно вы хотите указывать для каждого отдельного сайта?
Ну, например

RewriteCond %{HTTP_HOST} ^(www.)?sait1.com$ [NC]
RewriteRule [zdesj-pishem-pravilo]

понятно спасибо, пока ничего, так на будущее )
Решил все-таки без симлинков делать, как друпал советует, одно только смущает - если понадобится бэкап конкретного сайта, придется делать бэкап всех сайтов.

Аватар пользователя sanita sanita 7 августа 2014 в 14:22

qwert123 wrote:
одно только смущает - если понадобится бэкап конкретного сайта, придется делать бэкап всех сайтов.

Правила бэкапа полностью находятся в ваших руках - как организируете.

Если сделаете мультисайтинг на различных базах, то можете делать бэкап только определенной базы/баз. Кстати, это вам позволит в любой момент вывести сайт из мультисайтинга и сделать его "отдельным и независимым".

Бэкап файлов тоже можете производить отдельно для общих файлов мультисайтинга + отдельно для каждого сайта - папки из site/*.

Аватар пользователя qwert123 qwert123 7 августа 2014 в 18:27

между тем обнаружил неприятную особенность-глюк в мультисайтинге, здесь описал http://www.drupal.ru/node/111722
Снова раздумываю не остановиться ли на симликах, там пути к файлам даже не надо изменять.

Аватар пользователя PVasili PVasili 2 апреля 2015 в 13:58

"qwert123" wrote:
Снова раздумываю

А что раздумывать?
Делаете пути у папок files разных доменов разными и все (например .
В .htaccess для каждого домена свои настройки, там же каждому домену по своим папка всякий мусор(robots, webmaster, favicon) из корня.