博客
关于我
为什么我推荐Nginx作为后端服务器代理
阅读量:430 次
发布时间:2019-03-06

本文共 3360 字,大约阅读时间需要 11 分钟。

我们真实的服务器不应该直接暴露到公网上去,否则更加容易泄露服务器信息,也更加容易受到攻击。一个比较“平民化”的方案是使用Nginx反向代理它。今天就来聊一聊使用Nginx反向代理的一些能力,Nginx代理能帮助我们实现很多非常有效的API控制功能。这也解释了我为什么一直推荐使用Nginx来代理我们的Spring Boot应用。

Nginx已经不用太多的赞美了,它已经得到了业界的广泛认可。我们就聊聊它具体能够实现什么功能。

这是针对服务器端我们最常用的功能,一台具有公网的Nginx服务器可以代理和它能进行内网通信的真实的服务器。让我们的服务器不直接对外暴露,增加其抗风险能力。

假如Nginx服务器192.168.1.8可以和同一内网网段的192.168.1.9的应用服务器进行通信,同时Nginx服务器具有公网能力并将公网绑定到域名felord.cn上。那么我们Nginx代理的对应的配置(nginx.conf)是这样的:

server {listen 80;server_name felord.cn;location ^~ /api/v1 {proxy_set_header Host $host;proxy_pass http://192.168.1.9:8080/;}}

经过以上配置后,我们服务器真实的接口地址是http://192.168.1.9:8080/foo/get就可以通过http://felord.cn/api/v1/foo/get访问。

proxy_pass如果以/结尾,就相当于是绝对根路径,那么Nginx不会把location中匹配的路径部分代理走;如果不以/结尾,也会代理匹配的路径部分。

Nginx还提供了一个rewrite功能让我们在请求到达服务器时重写URI,对请求进行一些预处理。

在2.1的例子中如果我们要实现如果判断请求为POST的话返回405,只需要更改配置为:

location ^~ /api/v1 {proxy_set_header Host $host;if ($request_method = POST){return 405;}proxy_pass http://192.168.1.9:8080/;}

你可以使用Nginx提供的全局变量(如上面配置中的$request_method)或自己设置的变量作为条件,结合正则表达式和标志位(last、break、redirect、permanent)实现URI重写以及重定向。

之前很多同学在群里问如何在Spring Boot项目中配置HTTPS,我都推荐使用Nginx来做这个事情。Nginx比Spring Boot中配置SSL要方便的多,而且不影响我们本地开发。Nginx中HTTPS的相关配置根据下面的改一改就能用:

http {#http节点中可以添加多个server节点server {#ssl 需要监听443端口listen 443;# CA证书对应的域名server_name felord.cn;# 开启sslssl on;# 服务器证书绝对路径ssl_certificate /etc/ssl/cert_felord.cn.crt;# 服务器端证书key绝对路径ssl_certificate_key /etc/ssl/cert_felord.cn.key;ssl_session_timeout 5m;# 协议类型ssl_protocols TLSv1 TLSv1.1 TLSv1.2;# ssl算法列表ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE;# 是否 服务器决定使用哪种算法 on/off TLSv1.1 的话需要开启ssl_prefer_server_ciphers on;location ^~ /api/v1 {proxy_set_header Host $host;proxy_pass http://192.168.1.9:8080/;}}# 如果用户通过 http 访问 直接重写 跳转到 https 这个是一个很有必要的操作server {listen 80;server_name felord.cn;rewrite ^/(.*)$ https://felord.cn:443/$1 permanent;}

这里就用到了rewrite来提高用户体验。

一般项目都是从小做到大起来的,起步的时候部署一个服务器就够用了,如果你的项目用户多了起来,首先恭喜你,说明你的项目方向很对。但是伴随而来还有服务器压力,你一定不想服务器宕机带来的各种损失,你需要快速提高服务器的抗压能力,或者你想不停机维护避免业务中断,这些都可以通过Nginx的负载均衡来实现,而且非常简单。假如felord.cn我们部署了三个节点:

最简单的轮询策略

轮番派发请求,这种配置是最简单的:

http {upstream app {# 节点1server 192.168.1.9:8080;# 节点2server 192.168.1.10:8081;# 节点3server 192.168.1.11:8082;}server {listen 80;server_name felord.cn;location ^~ /api/v1 {proxy_set_header Host $host;proxy_pass http://app/;}}}

加权轮询策略

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况:

upstream app {# 节点1server 192.168.1.9:8080 weight = 6;# 节点2server 192.168.1.10:8081 weight = 3;# 节点3server 192.168.1.11:8082 weight = 1;}

最终请求处理数将为6:3:1进行分配。其实简单轮询可以看作所有的权重均分为1。轮询宕机可自动剔除。

IP HASH

根据访问IP进行Hash,这样每个客户端将固定访问服务器,如果服务器宕机,需要手动剔除。

upstream app {ip_hash;# 节点1server 192.168.1.9:8080 weight = 6;# 节点2server 192.168.1.10:8081 weight = 3;# 节点3server 192.168.1.11:8082 weight = 1;}

最少连接

请求将转发到连接数较少的服务器上,充分利用服务器资源:

upstream app {least_conn;# 节点1server 192.168.1.9:8080 weight = 6;# 节点2server 192.168.1.10:8081 weight = 3;# 节点3server 192.168.1.11:8082 weight = 1;}

我们可以借助一些插件来实现其它模式的负载均衡,例如借助于nginx-upsync-module实现动态负载均衡。我们是不是借助于此可以开发一个灰度发布功能呢?

通过对Nginx的配置,我们可以实现漏桶算法和令牌桶算法,通过限制单位时间的请求数、同一时间的连接数来限制访问速度。这一块我并没有深入研究过这里就提一提,你可以查询相关的资料研究。

Nginx非常强大,推荐使用它来代理我们的后端应用,我们可以通过配置实现很多有用的功能,而不必进行一些非业务逻辑的编码来实现。如果你在Spring Boot中实现限流、配置SSL的话,麻烦不说,还影响本地开发,使用Nginx可以让我们专心到业务中去。可以说Nginx在这里充当了一个小网关的作用,其实很多知名网关底层都是Nginx,比如Kong、Orange、Apache APISIX等,如果你有兴趣可以玩一玩Nginx的高级形态Openresty。另外我这里也有一份非常不错的Nginx入门资料送给你,可以关注:码农小胖哥 回复 nginx 获取。

关注公众号:Felordcn 获取更多资讯

转载地址:http://lajuz.baihongyu.com/

你可能感兴趣的文章
NIO笔记---上
查看>>
NIO蔚来 面试——IP地址你了解多少?
查看>>
NISP一级,NISP二级报考说明,零基础入门到精通,收藏这篇就够了
查看>>
NISP国家信息安全水平考试,收藏这一篇就够了
查看>>
NIS服务器的配置过程
查看>>
Nitrux 3.8 发布!性能全面提升,带来非凡体验
查看>>
NiuShop开源商城系统 SQL注入漏洞复现
查看>>
NI笔试——大数加法
查看>>
NLog 自定义字段 写入 oracle
查看>>
NLog类库使用探索——详解配置
查看>>
NLP 基于kashgari和BERT实现中文命名实体识别(NER)
查看>>
NLP 模型中的偏差和公平性检测
查看>>
Vue3.0 性能提升主要是通过哪几方面体现的?
查看>>
NLP 项目:维基百科文章爬虫和分类【01】 - 语料库阅读器
查看>>
NLP_什么是统计语言模型_条件概率的链式法则_n元统计语言模型_马尔科夫链_数据稀疏(出现了词库中没有的词)_统计语言模型的平滑策略---人工智能工作笔记0035
查看>>
NLP三大特征抽取器:CNN、RNN与Transformer全面解析
查看>>
NLP学习笔记:使用 Python 进行NLTK
查看>>
NLP度量指标BELU真的完美么?
查看>>
NLP的不同研究领域和最新发展的概述
查看>>
NLP的神经网络训练的新模式
查看>>