1) 1 000 уникальных установок удалят любое преимущество, которое кэширование может предоставить Вам. Идеально Вы выполнили бы одну установку (который будет кэшироваться в памяти через APC или подобный), с набором различных баз данных. WP-суперкэш мог бы помочь с Вашими проблемами кэширования, хотя, поскольку он должен представить все в статические файлы HTML. В основном Вы хотите удалить столько динамического контента, сколько Вы можете от каждой страницы.
2) Выполнение всех 1 000 заданий последовательно является, вероятно, плохой идеей (Вы, верные 1 000 запросов могут завершиться через час?). В то же время выполнение 1 000 заданий параллельно является также плохой идеей (Ваш веб-сервер может противостоять 1000/reqs/sec?). Я предложил бы что-то в середине. Возможно, Вы запускаете 10 процессов, и каждый делает 100 блогов со случайной задержкой между ними.
3) Если можно использовать чистый nginx + php-fastcgi, придерживаться его. Apache не собирается помогать Вам всегда.
Вы использующий php-fastcgi (исключая: икра-fcgi) или php-fpm? php-fpm был бы моим предложением, поскольку можно настроить его для порождения большего количества процессов, когда загрузка выше.
Исправление заключалось в изменении fileserver.conf и установке:
allow *
вместо
allow fqdn
allow_ip ip
Как это:
[files]
path /srv/puppet
allow *
# allow *.botnet.corp.yeri.be
# allow_ip 172.27.0.0/18
[plugins]
allow *
# allow *.botnet.corp.yeri.be
# allow_ip 172.27.0.0/18