Понимание объединяющийся в сеть в среде веб-хостинга

Уверенный - ldifde или csvde с делают экспорт, можно очистить что-либо, что Вы любите в выходном файле и затем используете тот же инструмент, чтобы сделать импорт.

0
задан 14 May 2013 в 04:53
1 ответ

Вы правильно поняли. Стоит отметить, что с точки зрения сети виртуальный IP-адрес - это, по сути, общедоступный IP-адрес, который контролируется вашим маршрутизатором, и вы можете сдавать его в аренду где угодно и когда угодно ...

Существует два типа IP-адресов: общедоступные IP-адреса (которые вы обычно назначаете самому маршрутизатору), а затем у вас есть частные IP-адреса, над которыми вы имеете 100% контроль в своей VLAN. В вашем случае вы хотите взять все свои общедоступные IP-адреса, поместить их в одну VLAN, назначить их все вашему маршрутизатору (и дать вашему маршрутизатору сдать их в аренду через статическую IP-маршрутизацию) и убедиться, что маршрутизатор настроен. для перенаправления NAT 1: 1 (который может принимать общедоступный IP-адрес и по существу перенаправлять его на внутренний IP-адрес. Таким образом, на своем сервере вы можете назначить его, скажем, 10.0.0.101, а ваш резервный сервер - 10.0.0.102 . Если ваш главный сервер выходит из строя, вам не нужно переключать какие-либо общедоступные IP-адреса, все, что вам нужно сделать на стороне маршрутизатора, - это подключить вашу общедоступную IP-точку к вашему другому частному IP-адресу.

Но есть другие способы сделать это. Если вы используете что-то вроде восходящей внутренней функции Nginx ( http://wiki.nginx.org/HttpUpstreamModule ), вы также можете иметь балансировку нагрузки веб-сервера между несколькими серверами (и если один из них - end, Nginx знает об этом), но тогда, если основной веб-сервер Nginx, проксирующий ваши запросы, выйдет из строя, вам придется использовать какую-то другую причудливую маршрутизацию, чтобы обеспечить переключение при отказе. Вы можете прочитать на https://stackoverflow.com/questions/10971298/load-balancing-with-nginx :)

все, что вам нужно сделать на стороне маршрутизатора, - это подключить вашу публичную IP-точку к вашему другому частному IP.

Но есть и другие способы сделать это. Если вы используете что-то вроде восходящей внутренней функции Nginx ( http://wiki.nginx.org/HttpUpstreamModule ), вы также можете иметь балансировку нагрузки веб-сервера между несколькими серверами (и если один из них - end, Nginx знает об этом), но тогда, если основной веб-сервер Nginx, проксирующий ваши запросы, выйдет из строя, вам придется использовать какую-то другую причудливую маршрутизацию, чтобы обеспечить переключение при отказе. Вы можете прочитать на https://stackoverflow.com/questions/10971298/load-balancing-with-nginx :)

все, что вам нужно сделать на стороне маршрутизатора, - это связать публичный IP-адрес с другим частным IP-адресом.

Но есть и другие способы сделать это. Если вы используете что-то вроде восходящей серверной функции Nginx ( http://wiki.nginx.org/HttpUpstreamModule ), вы также можете иметь балансировку нагрузки веб-сервера между несколькими серверами (и если один из них - end, Nginx знал бы об этом), но тогда, если основной веб-сервер Nginx, проксирующий ваши запросы, выйдет из строя, вам придется использовать какую-то другую причудливую маршрутизацию, чтобы обеспечить переключение при отказе. Вы можете прочитать на https://stackoverflow.com/questions/10971298/load-balancing-with-nginx :)

Если вы используете что-то вроде восходящей серверной функции Nginx ( http://wiki.nginx.org/HttpUpstreamModule ), вы также можете иметь балансировку нагрузки веб-сервера между несколькими серверами (и если один из них - end, Nginx знал бы об этом), но тогда, если основной веб-сервер Nginx, проксирующий ваши запросы, выйдет из строя, вам придется использовать какую-то другую причудливую маршрутизацию, чтобы обеспечить переключение при отказе. Вы можете прочитать на https://stackoverflow.com/questions/10971298/load-balancing-with-nginx :)

Если вы используете что-то вроде восходящей внутренней функции Nginx ( http://wiki.nginx.org/HttpUpstreamModule ), вы также можете иметь балансировку нагрузки веб-сервера между несколькими серверами (и если один из них - end, Nginx знал бы об этом), но тогда, если основной веб-сервер Nginx, проксирующий ваши запросы, выйдет из строя, вам придется использовать какую-то другую причудливую маршрутизацию, чтобы обеспечить переключение при отказе. Вы можете прочитать на https://stackoverflow.com/questions/10971298/load-balancing-with-nginx :)

Мне пришлось бы использовать другую причудливую маршрутизацию, чтобы обеспечить хорошее переключение при отказе. Вы можете прочитать на https://stackoverflow.com/questions/10971298/load-balancing-with-nginx :)

Мне пришлось бы использовать другую причудливую маршрутизацию, чтобы обеспечить хорошее переключение при отказе. Вы можете прочитать на https://stackoverflow.com/questions/10971298/load-balancing-with-nginx :)

2
ответ дан 4 December 2019 в 14:12

Теги

Похожие вопросы