Балансировка бэкендов с помощью Nginx
Балансировка нагрузки между несколькими приложениями, бэкендами и серверами является частью процесса оптимизации ресурсов, улучшения производительности и отказоустойчивости сервиса.
Nginx как load balancer
Этот веб-сервер считается одним из самых популярных и производительных решений, ведь имеет широчайший функционал и гибкость при настройке. Так что Nginx часто используется для балансировки нагрузки.
Подходов и реализаций несколько, но прежде проверьте наличие модуля ngx_http_upstream_module
:
nginx -v
Все установленные и исключенные модули будут содержаться в выводе
Если же он отсутствует, то придется пересобрать Nginx, добавив этот модуль.
После этого можно приступать к настройке веб-сервера. Для включения балансировки добавьте директиву upstream (секция http) в файл конфигурации Nginx:
upstream backend { server backend1.somesite.com; server backend2.somesite.com; server backend3.somesite.com; }
Можно назначить несколько директив upstream
Теперь нужно указать перенаправление необходимой группы:
server { location / { proxy_pass http://backend; } }
Перенаправление также можно указать в директивах fastcgi_pass
, memcached_pass, uwsgi_pass
, scgi_pass
Кроме этого Nginx поддерживает дополнительные параметры и методы распределения нагрузки.
Выбор метода балансировки
Nginx предлагает несколько методов балансировки нагрузки.
Round-robin
Веб-сервер по умолчанию распределяет запросы равномерно между бэкендами (но с учетом весов). Этот стандартный метод в Nginx, так что директива включения отсутствует.
least_conn
Запросы сначала отправляются бэкенду с наименьшим количеством активных подключений (но с учетом весов):
upstream backend { least_conn; server backend1.somesite.com; server backend2.somesite.com; }
Если количество активных соединений одинаково, то дополнительно используется метод round-robin
Hash и IP hash
При помощи этого метода можно создать своего рода постоянные соединения между клиентами и бэкендами.
Для каждого запроса Nginx вычисляет хэш, который состоит из текста, переменных веб-сервера или их комбинации, а затем сопоставляет его с бэкендами:
upstream backend { hash $scheme$request_uri; server backend1.somesite.com; server backend2.somesite.com; server backend3.somesite.com; }
Для вычисления хэша используется схема (http или https) и полный URL
IP hash работает только с HTTP, это предопределенный вариант, в котором хэш вычисляется по IP-адресу клиента:
upstream backend { ip_hash; server backend1.somesite.com; server backend2.somesite.com; server backend3.somesite.com; }
Если адрес клиента IPv4, то для хэша используется первые три октета, если IPv6, то весь адрес
Веса бэкендов
Если в стеке определенные бэкенды мощнее, чем другие, то пригодятся веса:
upstream backend { server backend1.somesite.com weight=10; server backend2.somesite.com weight=5; server backend3.somesite.com; server 192.0.0.1 backup; }
По умолчанию веса равны 1
В этом примере из каждых 16 запросов первый бэкенд будет обрабатывать 10, второй 5, а третий 1. При этом бэкап-сервер будет получать запросы только если три основных бэкенда недоступны.
Мониторинг
Если Nginx считает, что бэкенд сервер недоступен, то временно перестает слать на него запросы. За это отвечает две директивы:
- max_fails — задает количество неудачных попыток подключений, после которых бэкенд определенное время считается недоступным;
- fail_timeout — время, в течение которого сервер считается недоступным.
Параметры выглядят так:
upstream backend { server backend1.somesite.com; server backend2.somesite.com max_fails=3 fail_timeout=30s; server backend3.somesite.com max_fails=2; }
Параметры по умолчанию: 1 попытка, 10 секунд таймаута
Самое главное
Выбор подходящего метода балансировки позволит сделать более равномерно распределить нагрузку. Не забывайте о весах бэкендов, мониторинге и отказоустойчивости серверов.
Этот текст был написан несколько лет назад. С тех пор упомянутые здесь инструменты и софт могли получить обновления. Пожалуйста, проверяйте их актуальность.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: