<div dir="ltr">Hi<div><br></div><div>if I am reading this right, you currently have too much load on 1 nginx server and you wish to releave this by adding another nginx server in front of it ?</div><div><br></div><div>What I have is 2 nodes, but I use pacemaker instead of keepalive - i like it as a better solution - but thats for another thread.</div><div><br></div><div>what you can do with pacemaker is have 1 ip address distributed between multiple machines - up to 16 nodes I think from memory.</div><div><br></div><div>It uses linux iptables module for doing this. It is dependant on the source ip's being distributed, if there are clamp together the hashing algo will not make it any better.</div><div><br></div><div>How many requests are you getting to overload nginx - i thought it was able to handle very large amounts ?</div><div><br></div><div>are your nodes big enough do you need more CPU's or memory or ??</div><div><br></div><div>Alex</div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 3 March 2017 at 01:40, polder_trash <span dir="ltr"><<a href="mailto:nginx-forum@forum.nginx.org" target="_blank">nginx-forum@forum.nginx.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
I have been reading the documentation and also searching this forum for a<br>
while, but could not find an answer to my question.<br>
Currently, I have a 2 NGINX nodes acting as a reverse proxy (in a failover<br>
setup using keepalived). The revproxy injects an authentication header, for<br>
an online website (transport is https).<br>
<br>
As the number of users grows, the load on the current machine starts to get<br>
uncomfortably high and I would like to be able to spread the load over both<br>
nodes.<br>
<br>
What would be the best way to set this up?<br>
<br>
I already tried adding both IP addresses to the DNS. But this, rather<br>
predictably, only sent a handful of users to the secondary node.<br>
I now plan about setting up an NGINX node in front of these revproxy nodes,<br>
acting as a round-robin load balancer. Will this work? Given the fact that<br>
traffic is over HTTPS, terminating the request will probably put all the<br>
load on the load balancer and therefore does not solve my issue.<br>
<br>
Your advice and help is greatly appreciated.<br>
<br>
Posted at Nginx Forum: <a href="https://forum.nginx.org/read.php?2,272713,272713#msg-272713" rel="noreferrer" target="_blank">https://forum.nginx.org/read.<wbr>php?2,272713,272713#msg-272713</a><br>
<br>
______________________________<wbr>_________________<br>
nginx mailing list<br>
<a href="mailto:nginx@nginx.org">nginx@nginx.org</a><br>
<a href="http://mailman.nginx.org/mailman/listinfo/nginx" rel="noreferrer" target="_blank">http://mailman.nginx.org/<wbr>mailman/listinfo/nginx</a><br>
</blockquote></div><br></div>