首页分析:Lua、OpenRest、广告缓存的载入与读取、Nginx、canal同步广告
1 首页分析
1.1 首页广告分析
首页门户系统需要展示各种各样的广告数据。如图,以jd为例:
变更频率低的数据,如何提升访问速度?
1.数据做成静态页[商品详情页]
2.做缓存[Redis](memorycache)
基本的思路如下:
如上图此种方式 简单,直接通过数据库查询数据展示给用户即可,但是通常情况下,首页(门户系统的流量一般非常的高)不适合直接通过mysql数据库直接访问的方式来获取展示。
1.2 首页缓存架构
如下思路:
1.首先访问nginx ,我们可以采用缓存的方式,先从nginx本地缓存中获取,获取到直接响应
2.如果没有获取到,再次访问redis,我们可以从redis中获取数据,如果有 则返回,并缓存到nginx中
3.如果没有获取到,再次访问mysql,我们从mysql中获取数据,再将数据存储到redis中,返回。
而这里面,我们都可以使用LUA脚本嵌入到程序中执行这些查询相关的业务。
逐级缓存:
二层缓存
2 Lua
Lua [1] 是一个小巧的脚本语言。它是巴西里约热内卢天主教大学(Pontifical Catholic University of Rio de Janeiro)里的一个由Roberto Ierusalimschy、Waldemar Celes 和 Luiz Henrique de Figueiredo三人所组成的研究小组于1993年开发的。 其设计目的是为了通过灵活嵌入应用程序中从而为应用程序提供灵活的扩展和定制功能。Lua由标准C编写而成,几乎在所有操作系统和平台上都可以编译,运行。Lua并没有提供强大的库,这是由它的定位决定的。所以Lua不适合作为开发独立应用程序的语言。Lua 有一个同时进行的JIT项目,提供在特定平台上的即时编译功能。
简单来说:
Lua 是一种轻量小巧的脚本语言,用标准C语言编写并以源代码形式开放, 其设计目的是为了嵌入应用程序中,从而为应用程序提供灵活的扩展和定制功能。
特性
- 支持面向过程(procedure-oriented)编程(SQL)和函数式编程(functional programming);
- 自动内存管理;只提供了一种通用类型的表(table),用它可以实现数组,哈希表,集合,对象;
- 语言内置模式匹配;闭包(闭包就是能够读取其他函数内部变量的函数);函数也可以看做一个值;提供多线程(协同进程,并非操作系统所支持的线程)支持;
- 通过闭包和table可以很方便地支持面向对象编程所需要的一些关键机制,比如数据抽象(只向外界提供关键信息,并隐藏其后台的实现细节),虚函数,继承和重载等。
应用场景
- 游戏开发
- 独立应用脚本
- Web 应用脚本
- 扩展和数据库插件如:MySQL Proxy 和 MySQL WorkBench
- 安全系统,如入侵检测系统
- redis中嵌套调用实现类似事务的功能
- web容器中应用处理一些过滤 缓存等等的逻辑,例如nginx。
lua的安装
有linux版本的安装也有mac版本的安装。我们采用linux版本的安装,首先我们准备一个linux虚拟机。
安装步骤,在linux系统中执行下面的命令。
#下载lua的压缩包
curl -R -O http://www.lua.org/ftp/lua-5.3.5.tar.gz
#解压压缩包
tar zxf lua-5.3.5.tar.gz
#进入lua的目录
cd lua-5.3.5
#安装lua
make linux test
注意:此时安装,有可能会出现如下错误:
此时需要安装lua相关依赖库的支持,执行如下命令即可:
yum install libtermcap-devel ncurses-devel libevent-devel readline-devel
中途需要输入y来进行确认安装
此时再执行lua测试看lua是否安装成功
[root@localhost ~]# lua
Lua 5.1.4 Copyright (C) 1994-2008 Lua.org, PUC-Rio
入门程序
创建hello.lua文件,内容为
编辑文件hello.lua
vi hello.lua
在文件中输入:
print("hello");
保存并退出。
执行命令
lua hello.lua
输出为:
Hello
效果如下:
LUA的基本语法
lua有交互式编程(在控制台编写代码)和脚本式编程(在文件中写代码叫脚本编程)。
交互式编程就是直接输入语法,就能执行。
脚本式编程需要编写脚本,然后再执行命令 执行脚本才可以。
一般采用脚本式编程。(例如:编写一个hello.lua的文件,输入文件内容,并执行lua hell.lua即可)
(1)交互式编程
Lua 提供了交互式编程模式。我们可以在命令行中输入程序并立即查看效果。
Lua 交互式编程模式可以通过命令 lua -i 或 lua 来启用:
#-i input
lua -i
如下图:
(2)脚本式编程
我们可以将 Lua 程序代码保持到一个以 lua 结尾的文件,并执行,该模式称为脚本式编程,例如上面入门程序中将lua语法写到hello.lua文件中。
注释
一行注释:两个减号是单行注释:
--
多行注释:
--[[
多行注释
多行注释
--]]
定义变量
A private a
B
脚本式编程:局部变量的作用域是一个脚本内
交互式编程: 局部变量的做用户只在定义的那一行有效
全局变量,默认的情况下,定义一个变量都是全局变量,
如果要用局部变量 需要声明为local.例如:
-- 全局变量赋值
a=1
-- 局部变量赋值
local b=2
如果变量没有初始化:则 它的值为nil 这和java中的null不同。
如下图案例:
Lua中的数据类型
Lua 是动态类型语言,变量不要类型定义,只需要为变量赋值。 值可以存储在变量中,作为参数传递或结果返回。
Lua 中有 8 个基本类型分别为:nil、boolean、number、string、userdata、function、thread 和 table。
数据类型 | 描述 |
---|---|
nil | 这个最简单,只有值nil属于该类,表示一个无效值(在条件表达式中相当于false)。 |
boolean | 包含两个值:false和true。 |
number | 表示双精度类型的实浮点数 |
string | 字符串由一对双引号或单引号来表示 |
function | 由 C 或 Lua 编写的函数 |
userdata | 表示任意存储在变量中的C数据结构 |
thread | 表示执行的独立线路,用于执行协同程序 |
table | Lua 中的表(table)其实是一个"关联数组"(associative arrays),数组的索引可以是数字、字符串或表类型。在 Lua 里,table 的创建是通过"构造表达式"来完成,最简单构造表达式是{},用来创建一个空表。 |
lua红有个type函数,能出对象的类型。
实例:
print(type("Hello world")) --> string
print(type(10.4*3)) --> number
print(type(print)) --> function
print(type(type)) --> function
print(type(true)) --> boolean
print(type(nil)) --> nil
流程控制
(1)if语句
Lua if 语句 由一个布尔表达式作为条件判断,其后紧跟其他语句组成。
语法:
if(布尔表达式)
then
--[ 在布尔表达式为 true 时执行的语句 --]
end
实例:
(2)if…else语句
Lua if 语句可以与 else 语句搭配使用, 在 if 条件表达式为 false 时执行 else 语句代码块。
语法:
if(布尔表达式)
then
--[ 布尔表达式为 true 时执行该语句块 --]
else
--[ 布尔表达式为 false 时执行该语句块 --]
end
实例:
循环
(1)while循环[满足条件就循环]----先判断后执行
Lua 编程语言中 while 循环语句在判断条件为 true 时会重复执行循环体语句。
语法:
while(condition)
do
statements
end
实例:
a=10
while( a < 20 )
do
print("a 的值为:", a)
a = a+1
end
效果如下:
(2)for循环
int i =1 i< 10 i++
var i=1,10,2
Lua 编程语言中 for 循环语句可以重复执行指定语句,重复次数可在 for 语句中控制。
语法: 1->10 1:exp1 10:exp2 2:exp3:递增的数量
for var=exp1,exp2,exp3
do
<执行体>
end
var 从 exp1 变化到 exp2,每次变化以 exp3 为步长递增 var,并执行一次 “执行体”。exp3 是可选的,如果不指定,默认为1。
例子:
for i=1,9,2
do
print(i)
end
for i=1,9,2
:i=1从1开始循环,9循环数据到9结束,2每次递增2
(3)repeat…until语句[满足条件结束]==先执行,后判断
Lua 编程语言中 repeat…until 循环语句不同于 for 和 while循环,for 和 while 循环的条件语句在当前循环执行开始时判断,而 repeat…until 循环的条件语句在当前循环结束后判断。
while 循环是先判断再执行
repeat 先执行,再判断
语法:
repeat
statements
until( condition )
案例:
函数
lua中也可以定义函数,类似于java中的方法。例如:
--[[ 函数返回两个值的最大值 --]]
function max(num1, num2)
if (num1 > num2) then
result = num1;
else
result = num2;
end
return result;
end
-- 调用函数
print("两值比较最大值为 ",max(10,4))
print("两值比较最大值为 ",max(5,6))
执行之后的结果:
两值比较最大值为 10
两值比较最大值为 6
…:表示拼接
‘abc’ + ‘def’
‘abc’…‘def’
表
table 是 Lua 的一种数据结构用来帮助我们创建不同的数据类型,如:数组、字典等。
Lua也是通过table来解决模块(module)、包(package)和对象(Object)的。
案例:
-- 初始化表
mytable = {}
-- 指定值
mytable[0]= "Lua"
mytable[1]= "Lua1"
mytable[2]= "Lua2"
--删除值
mytable[2]= nil
-- 移除引用
mytable = nil
模块
(1)模块定义
模块类似于一个封装库,从 Lua 5.1 开始,Lua 加入了标准的模块管理机制,可以把一些公用的代码放在一个文件里,以 API 接口的形式在其他地方调用,有利于代码的重用和降低代码耦合度。
创建一个文件叫module.lua,在module.lua中创建一个独立的模块,代码如下:
-- 文件名为 module.lua
-- 定义一个名为 module 的模块
module = {}
-- 定义一个常量
module.constant = "这是一个常量"
abc="abc"
-- 定义一个函数
function module.func1()
print("这是一个公有函数")
end
local function func2()
print("这是一个私有函数!")
end
function module.func3()
func2()
end
return module
由上可知,模块的结构就是一个 table 的结构,因此可以像操作调用 table 里的元素那样来操作调用模块里的常量或函数。
上面的 func2 声明为程序块的局部变量,即表示一个私有函数,因此是不能从外部访问模块里的这个私有函数,必须通过模块里的公有函数来调用.
java引用外部的类使用import
(2)require 函数
require 用于 引入其他的模块,类似于java中的类要引用别的类的效果。
用法:
require("<模块名>")
require "<模块名>"
两种都可以。
我们可以将上面定义的module模块引入使用,创建一个test_module.lua文件,代码如下:
-- test_module.lua 文件
-- module 模块为上文提到到 module.lua
require("module")
--在模块中定义的常亮叫什么名字
print(module.constant)
module.func3()
3 OpenRest
OpenResty(又称:ngx_openresty) 是一个基于 nginx的可伸缩的 Web 平台,由中国人章亦春发起,提供了很多高质量的第三方模块。
OpenResty 是一个强大的 Web 应用服务器,Web 开发人员可以使用 Lua 脚本语言调动 Nginx 支持的各种 C 以及 Lua 模块,更主要的是在性能方面,OpenResty可以 快速构造出足以胜任 10K-1000K 以上并发连接响应的超高性能 Web 应用系统。
360,UPYUN,阿里云,新浪,腾讯网,去哪儿网,酷狗音乐等都是 OpenResty 的深度用户。
OpenResty 简单理解成 就相当于封装了nginx,并且集成了LUA脚本,开发人员只需要简单的其提供了模块就可以实现相关的逻辑,而不再像之前,还需要在nginx中自己编写lua的脚本,再进行调用了。
OpenResty:
封装了Nginx,并为Nginx提供了高性能的可扩展程序,使Nginx抗压能力得到了大大的提升,能使Nginx抗压能力达到10K-1000K,并且提供了Lua脚本的扩展支持。
3.2 安装openresty
linux安装openresty:
1.添加仓库执行命令
#安装 yum插件工具 进行openresty的下载
yum install yum-utils
yum-config-manager --add-repo https://openresty.org/package/centos/openresty.repo
2.执行安装
#安装
yum install openresty
3.安装成功后 会在默认的目录如下:
/usr/local/openresty
3.3 安装nginx
默认已经安装好了nginx,在目录:/usr/local/openresty/nginx
下(nginx安装在openresty中)。
修改/usr/local/openresty/nginx/conf/nginx.conf
,将配置文件使用的根设置为root,目的就是将来要使用lua脚本的时候 ,直接可以加载在root下的lua脚本。
cd /usr/local/openresty/nginx/conf
vi nginx.conf
修改代码如下:
#启动nginx
进入nginx的sbin目录执行
./nginx
#nginx的配置文件生效,进入nginx的sbin目录执行
./nginx -s reload
3.4 测试访问
重启下centos虚拟机,然后访问测试Nginx
访问地址:http://192.168.211.132/
4.广告缓存的载入与读取
4.1 需求分析
需要在页面上显示广告的信息。
4.2 Lua+Nginx配置
(1)实现思路-查询数据放入redis中
我们先写个通过Lua脚本添加Redis缓存的小案例,该案例仅用于测试Lua操作Redis。
实现思路:
定义请求:用于查询数据库中的数据更新到redis中。
a.连接mysql ,按照广告分类ID读取广告列表,转换为json字符串。
b.连接redis,将广告列表json字符串存入redis 。
定义请求:
请求:
/update_content
参数:
id --指定广告分类的id
返回值:
json
请求地址:<http://192.168.211.132/update_content?id=1>
创建/root/lua目录,在该目录下创建update_content.lua: 目的就是连接mysql 查询数据 并存储到redis中。
上图代码如下:
ngx.header.content_type="application/json;charset=utf8"
local cjson = require("cjson")
local mysql = require("resty.mysql")
local uri_args = ngx.req.get_uri_args()
local id = uri_args["id"]
local db = mysql:new()
db:set_timeout(1000)
local props = {
host = "192.168.211.132",
port = 3306,
database = "changgou_content",
user = "root",
password = "123456"
}
local res = db:connect(props)
local select_sql = "select url,pic from tb_content where status ='1' and category_id="..id.." order by sort_order"
res = db:query(select_sql)
db:close()
local redis = require("resty.redis")
local red = redis:new()
red:set_timeout(2000)
local ip ="192.168.211.132"
local port = 6379
red:connect(ip,port)
red:set("content_"..id,cjson.encode(res))
red:close()
ngx.say("{flag:true}")
修改/usr/local/openresty/nginx/conf/nginx.conf
文件: 添加头信息,和 location信息
代码如下:
#旧的不用删掉,直接加个新的下面的内容
server {
listen 80;
server_name data-changgou-java.itheima.net;
location /update_content {
content_by_lua_file /root/lua/update_content.lua;
}
}
请求<http://192.168.211.132/update_content?id=1>
可以实现缓存的添加,我们查看Redis信息如下:
(2)实现思路-从redis中获取数据
网站首页需要获取广告大图,广告大图的更新频率很低,我们采用Lua实现缓存的加载操作。
实现思路:
定义请求http://192.168.211.132/read_content?id=1
,这里的id是广告分类id,用户根据广告分类的ID 获取广告的列表。通过lua脚本直接从redis中获取数据即可,流程如下:
图示流程:
1.查询Nginx缓存,如果有缓存,则直接将缓存中的广告返回。
2.如果Nginx缓存中没有广告数据,则通过Lua脚本查询Redis,如果Redis中有数据,则会将数据存入到Nginx的缓存,并返回查询到的数据。
3.如果Redis中也没有缓存,则此时会通过Lua脚本查询MySQL,如果MySQL中有数据,则将数据存入到Redis中并返回查询到的数据。
我们要想实现上面的流程,得先定义Nginx缓存,并且安装一个Redis,用于存储缓存数据。
(3)加入openresty本地缓存
在Nginx中定义lua缓存命名空间,修改nginx.conf,添加如下代码即可:
代码如下:
lua_shared_dict dis_cache 128m;
缓存定义后,编写Lua脚本,实现缓存加载流程,修改root/lua/read_content.lua文件,代码如下:
上图代码如下:
ngx.header.content_type="application/json;charset=utf8"
local uri_args = ngx.req.get_uri_args();
local id = uri_args["id"];
--获取本地缓存
local cache_ngx = ngx.shared.dis_cache;
--根据ID 获取本地缓存数据
local contentCache = cache_ngx:get('content_cache_'..id);
if contentCache == "" or contentCache == nil then
local redis = require("resty.redis");
local red = redis:new()
red:set_timeout(2000)
red:connect("192.168.211.132", 6379)
local rescontent=red:get("content_"..id);
if ngx.null == rescontent then
local cjson = require("cjson");
local mysql = require("resty.mysql");
local db = mysql:new();
db:set_timeout(2000)
local props = {
host = "192.168.211.132",
port = 3306,
database = "changgou_content",
user = "root",
password = "123456"
}
local res = db:connect(props);
local select_sql = "select url,pic from tb_content where status ='1' and category_id="..id.." order by sort_order";
res = db:query(select_sql);
local responsejson = cjson.encode(res);
red:set("content_"..id,responsejson);
ngx.say(responsejson);
db:close()
else
cache_ngx:set('content_cache_'..id, rescontent, 2*60);
ngx.say(rescontent)
end
red:close()
else
ngx.say(contentCache)
end
上述代码实现了缓存的加载流程,接着我们给Nginx配置一个http://192.168.211.132/read_content?id=1
的请求配置,修改/usr/local/openresty/nginx/conf/nginx.conf
,在localhost域名中添加如下代码:
#用户请求/read_content?id=1,将该请求给/root/lua/read_content.lua脚本处理
location /read_content {
content_by_lua_file /root/lua/read_content.lua;
}
接着我们测试一下根据广告分类ID查询广告信息,测试地址:http://192.168.211.132/read_content?id=1
此时会获取分类ID=1的所有广告信息。
4.3 IP更换域名
上面访问地址用的是IP,以后IP变更频率较高,我们把它换成域名data-changgou-java.itheima.net
,使用域名访问即可。
为了让用户请求data-changgou-java.itheima.net
域名能直接去请求192.168.211.132
,我们可以修改下C:\Windows\System32\drivers\etc\hosts
文件,添加data-changgou-java.itheima.net
的映解析,添加配置如下:
192.168.211.132 data-changgou-java.itheima.net
将nginx中的localhost换成域名,修改/usr/local/openresty/nginx/conf/nginx.conf
,将localhost改成域名
重新加载nginx的配置文件,用域名访问<http://data-changgou-java.itheima.net/read_content?id=1>
效果和之前用IP访问是一样的。
4.4 首页广告演示
我们打开index.html页面,发现无法加载广告,浏览器F12的时候会出现下面现象:
我们需要修改Nginx的配置,添加如下配置来实现跨域:
添加的代码如下:
add_header Access-Control-Allow-Origin *;
add_header Access-Control-Allow-Methods 'GET, POST, OPTIONS';
此时跨域问题就解决了,效果如下:
5 nginx限流
一般情况下,首页的并发量是比较大的,即使 有了多级缓存,当用户不停的刷新页面的时候,也是没有必要的,另外如果有恶意的请求 大量达到,也会对系统造成影响。
而限流就是保护措施之一。
5.1 生活中限流对比
-
水坝泄洪,通过闸口限制洪水流量(控制流量速度)。
-
办理银行业务:所有人先领号,各窗口叫号处理。每个窗口处理速度根据客户具体业务而定,所有人排队等待叫号即可。若快下班时,告知客户明日再来(拒绝流量)
-
火车站排队买票安检,通过排队 的方式依次放入。(缓存带处理任务)
5.2 nginx的限流
nginx提供两种限流的方式:
- 一是控制速率:每次处理多少个请求 10个请求,100个请求进来
- 二是控制并发连接数:nginx允许有多少请求同时连接上,每秒处理10个请求,最大并发数100,100,10个请求拿到数据
- 90个请求排队,101个请求同时进来
5.2.1 控制速率
控制速率的方式之一就是采用漏桶算法。
(1)漏桶算法实现控制速率限流
漏桶(Leaky Bucket)算法思路很简单,水(请求)先进入到漏桶里,漏桶以一定的速度出水(接口有响应速率),当水流入速度过大会直接溢出(访问频率超过接口响应速率),然后就拒绝请求,可以看出漏桶算法能强行限制数据的传输速率.示意图如下:
(2)nginx的配置
配置示意图如下:
修改/usr/local/openresty/nginx/conf/nginx.conf
:
user root root;
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
#cache
lua_shared_dict dis_cache 128m;
#限流设置 binary_remote_addr:根据请求IP进行限流 contentRateLimit:缓存空间名称 10m:缓存空间
#rate=2r/s:每秒钟允许有2个请求被处理
limit_req_zone $binary_remote_addr zone=contentRateLimit:10m rate=2r/s;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
server {
listen 80;
server_name data-changgou-java.itheima.net;
location /update_content {
content_by_lua_file /root/lua/update_content.lua;
}
location /read_content {
#使用限流配置
limit_req zone=contentRateLimit;
#跨域
add_header Access-Control-Allow-Origin *;
add_header Access-Control-Allow-Methods 'GET, POST, OPTIONS';
content_by_lua_file /root/lua/read_content.lua;
}
}
}
配置说明:
binary_remote_addr 是一种key,表示基于 remote_addr(客户端IP) 来做限流,binary_ 的目的是压缩内存占用量。
zone:定义共享内存区来存储访问信息, contentRateLimit:10m 表示一个大小为10M,名字为contentRateLimit的内存区域。1M能存储16000 IP地址的访问信息,10M可以存储16W IP地址访问信息。
rate 用于设置最大访问速率,rate=10r/s 表示每秒最多处理10个请求。Nginx 实际上以毫秒为粒度来跟踪请求信息,因此 10r/s 实际上是限制:每100毫秒处理一个请求。这意味着,自上一个请求处理完后,若后续100毫秒内又有请求到达,将拒绝处理该请求.我们这里设置成2 方便测试。
测试:
重新加载配置文件
cd /usr/local/openresty/nginx/sbin
./nginx -s reload
访问页面:http://data-changgou-java.itheima.net/read_content?id=1
,连续刷新会直接报错。
(3)处理突发流量
上面例子限制 2r/s,如果有时正常流量突然增大,超出的请求将被拒绝,无法处理突发流量,可以结合 burst 参数使用来解决该问题。
例如,如下配置表示:
上图代码如下:
server {
listen 80;
server_name data-changgou-java.itheima.net;
location /update_content {
content_by_lua_file /root/lua/update_content.lua;
}
location /read_content {
limit_req zone=contentRateLimit burst=3;
#跨域
add_header Access-Control-Allow-Origin *;
add_header Access-Control-Allow-Methods 'GET, POST, OPTIONS';
content_by_lua_file /root/lua/read_content.lua;
}
}
burst 译为突发、爆发,表示在超过设定的处理速率后能额外处理的请求数,当 rate=10r/s 时,将1s拆成10份,即每100ms可处理1个请求。
此处,**burst=4 **,若同时有4个请求到达,Nginx 会处理第一个请求,剩余3个请求将放入队列,然后每隔500ms从队列中获取一个请求进行处理。若请求数大于4,将拒绝处理多余的请求,直接返回503.
不过,单独使用 burst 参数并不实用。假设 burst=50 ,rate依然为10r/s,排队中的50个请求虽然每100ms会处理一个,但第50个请求却需要等待 50 * 100ms即 5s,这么长的处理时间自然难以接受。
因此,burst 往往结合 nodelay 一起使用。
例如:如下配置:
server {
listen 80;
server_name data-changgou-java.itheima.net;
location /update_content {
content_by_lua_file /root/lua/update_content.lua;
}
location /read_content {
limit_req zone=contentRateLimit burst=4 nodelay;
#跨域
add_header Access-Control-Allow-Origin *;
add_header Access-Control-Allow-Methods 'GET, POST, OPTIONS';
content_by_lua_file /root/lua/read_content.lua;
}
}
如上表示:
平均每秒允许不超过2个请求,突发不超过4个请求,并且处理突发4个请求的时候,没有延迟,等到完成之后,按照正常的速率处理。
如上两种配置结合就达到了速率稳定,但突然流量也能正常处理的效果。完整配置代码如下:
user root root;
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
#cache
lua_shared_dict dis_cache 128m;
#限流设置
limit_req_zone $binary_remote_addr zone=contentRateLimit:10m rate=2r/s;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
server {
listen 80;
server_name data-changgou-java.itheima.net;
location /update_content {
content_by_lua_file /root/lua/update_content.lua;
}
location /read_content {
limit_req zone=contentRateLimit burst=4 nodelay;
#跨域
add_header Access-Control-Allow-Origin *;
add_header Access-Control-Allow-Methods 'GET, POST, OPTIONS';
content_by_lua_file /root/lua/read_content.lua;
}
}
}
测试:如下图 在1秒钟之内可以刷新6次,正常处理。
但是超过之后,连续刷新7次,抛出异常。
5.2.2 控制并发量(连接数)
ngx_http_limit_conn_module 提供了限制连接数的能力。主要是利用limit_conn_zone和limit_conn两个指令。
利用连接数限制 某一个用户的ip连接的数量来控制流量。
一共允许100个连接,每个ip允许连接几次
注意:并非所有连接都被计算在内 只有当服务器正在处理请求并且已经读取了整个请求头时,才会计算有效连接。此处忽略测试。
配置语法:
Syntax: limit_conn zone number;
Default: —;
Context: http, server, location;
(1)配置限制固定连接数
如下,配置如下:
上图配置如下:
http {
include mime.types;
default_type application/octet-stream;
#cache
lua_shared_dict dis_cache 128m;
#限流设置
limit_req_zone $binary_remote_addr zone=contentRateLimit:10m rate=2r/s;
#根据IP地址来限制,存储内存大小1M
limit_conn_zone $binary_remote_addr zone=addr:1m;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
server {
listen 80;
server_name data-changgou-java.itheima.net;
#所有以brand开始的请求,访问本地changgou-service-goods微服务
location /brand {
limit_conn addr 2;
proxy_pass http://192.168.211.1:18081;
}
location /update_content {
content_by_lua_file /root/lua/update_content.lua;
}
location /read_content {
limit_req zone=contentRateLimit burst=4 nodelay;
content_by_lua_file /root/lua/read_content.lua;
}
}
}
表示:
limit_conn_zone $binary_remote_addr zone=addr:10m; 表示限制根据用户的IP地址来限制,设置存储地址为的内存大小10M
limit_conn addr 2; 表示同一个地址只允许连接2次。
防范:恶意的攻击软件,虚拟出100个线程同时请求我们api
测试:
此时开3个线程,测试的时候会发生异常,开2个就不会有异常
(2)限制每个客户端IP与服务器的连接数,同时限制与虚拟服务器的连接总数。(了解)
如下配置:
limit_conn_zone $binary_remote_addr zone=perip:10m;
limit_conn_zone $server_name zone=perserver:10m;
server {
listen 80;
server_name localhost;
charset utf-8;
location / {
limit_conn perip 2;#单个客户端ip与服务器的连接数
limit_conn perserver 100; #限制与服务器的总连接数
root html;
index index.html index.htm;
}
}
总结
1.效率限流:nginx每秒能处理多少个请求—nginx的请求控制是以毫秒为单位的 2000r/s =2r/ms
2.并发量限流:
1.每个IP能同时与nginx建立几个连接
2.总共能与nginx建立多少个连接
需要知道nginx有以上两种方面的限流,可以配置成什么样子
6 canal同步广告
6.1 Canal工作原理
canal可以用来监控数据库数据的变化,从而获得新增数据,或者修改的数据,删除的数据。
canal是应阿里巴巴存在杭州和美国的双机房部署,存在跨机房同步的业务需求而提出的。
阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务。
原理相对比较简单:
- canal模拟mysql slave的交互协议,伪装自己为mysql slave,向mysql master发送dump协议
- mysql master收到dump请求,开始推送binary log给
- slave(也就是canal)
- canal解析binary log对象(原始为byte流)
canal需要使用到mysql,我们需要先安装mysql,给大家发的虚拟机中已经安装了mysql容器,但canal是基于mysql的主从模式实现的,所以必须先开启binlog.
6.2 开启binlog模式
linux上安装mysql容器.此处不在演示。
(1) 修改/etc/mysql/mysql.conf.d/mysqId.cnf
需要开启主从模式,开启binlog模式。
执行如下命令,编辑mysql配置文件
命令行如下:
#进入mysql容器
docker exec -it mysql /bin/bash
#进入mysql数据库的配置文件目录
cd /etc/mysql/mysql.conf.d
#编辑mysql的配置文件
vi mysqld.cnf
修改mysqld.cnf配置文件,添加如下配置:
上图配置如下:
log-bin=/var/lib/mysql/mysql-bin
server-id=12345
(2) 创建账号 用于测试使用,
使用root账号创建用户并授予权限
#先登录mysql
mysql -uroot -p
#输入密码
#创建一个canal用户,密码也是canal,权限是只能能够进行select操作
create user canal identified by 'canal';
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';
FLUSH PRIVILEGES;
(3)重启mysql容器
docker restart mysql
6.3 canal容器安装
下载镜像:
docker pull docker.io/canal/canal-server
容器安装
docker run -p 11111:11111 --name canal -d docker.io/canal/canal-server
进入容器,修改核心配置canal.properties 和instance.properties,canal.properties 是canal自身的配置,instance.properties是需要同步数据的数据库连接配置。
执行代码如下:
#进入canal容器
docker exec -it canal /bin/bash
#进入canal配置文件目录
cd canal-server/conf/
#修改canal配置文件:只是配置canal本身一些属性
vi canal.properties
#实例的目录
cd example/
vi instance.properties
修改canal.properties的id,不能和mysql的server-id重复,如下图:
修改instance.properties,配置数据库连接地址:
这里的canal.instance.filter.regex
有多种配置,如下:
mysql 数据解析关注的表,Perl正则表达式.
多个正则之间以逗号(,)分隔,转义符需要双斜杠(\\)
常见例子:
1. 所有表:.* or .*\\..*
2. canal schema下所有表: canal\\..* changgou_content\\..*
3. canal下的以canal打头的表:canal\\.canal.* changgou_content\\.tb.*
4. canal schema下的一张表:canal.test1 changgou_content.tb_content,changgou_goods\\..*
5. 多个规则组合使用:canal\\..*,mysql.test1,mysql.test2 (逗号分隔)
注意:此过滤条件只针对row模式的数据有效(ps. mixed/statement因为不解析sql,所以无法准确提取tableName进行过滤)
配置完成后,设置开机启动,并记得重启canal。
docker update --restart=always canal
docker restart canal
6.4 canal微服务搭建
当用户执行 数据库的操作的时候,binlog 日志会被canal捕获到,并解析出数据。我们就可以将解析出来的数据进行同步到redis中即可。
思路:创建一个独立的程序,并监控canal服务器,获取binlog日志,解析数据,将数据更新到redis中。这样广告的数据就更新了。
(1)安装辅助jar包
在canal\spring-boot-starter-canal-master
中有一个工程starter-canal
,它主要提供了SpringBoot环境下canal
的支持,我们需要先安装该工程,在starter-canal
目录下执行mvn install
,如下图:
(2)canal微服务工程搭建
在changgou-service下创建changgou-service-canal工程,并引入相关配置。
pom.xml
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>changgou-service</artifactId>
<groupId>com.changgou</groupId>
<version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<artifactId>changgou-service-canal</artifactId>
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter</artifactId>
</dependency>
<!--canal依赖-->
<dependency>
<groupId>com.xpand</groupId>
<artifactId>starter-canal</artifactId>
<version>0.0.1-SNAPSHOT</version>
</dependency>
</dependencies>
</project>
application.yml配置
server:
port: 18083
spring:
application:
name: canal
eureka:
client:
service-url:
defaultZone: http://127.0.0.1:7001/eureka
instance:
prefer-ip-address: true
#canal配置
canal:
client:
instances:
example:
host: 192.168.211.132
port: 11111
(3)监听创建
创建一个CanalDataEventListener类,实现对表增删改操作的监听,代码如下:
package com.changgou.canal.listener;
import com.alibaba.otter.canal.protocol.CanalEntry;
import com.xpand.starter.canal.annotation.*;
@CanalEventListener
public class CanalDataEventListener {
/***
* 增加数据监听
* @param eventType
* @param rowData
*/
@InsertListenPoint
public void onEventInsert(CanalEntry.EventType eventType, CanalEntry.RowData rowData) {
rowData.getAfterColumnsList().forEach((c) -> System.out.println("By--Annotation: " + c.getName() + " :: " + c.getValue()));
}
/***
* 修改数据监听
* @param rowData
*/
@UpdateListenPoint
public void onEventUpdate(CanalEntry.RowData rowData) {
System.out.println("UpdateListenPoint");
rowData.getAfterColumnsList().forEach((c) -> System.out.println("By--Annotation: " + c.getName() + " :: " + c.getValue()));
}
/***
* 删除数据监听
* @param eventType
*/
@DeleteListenPoint
public void onEventDelete(CanalEntry.EventType eventType) {
System.out.println("DeleteListenPoint");
}
/***
* 自定义数据修改监听
* @param eventType
* @param rowData
*/
@ListenPoint(destination = "example", schema = "changgou_content", table = {"tb_content_category", "tb_content"}, eventType = CanalEntry.EventType.UPDATE)
public void onEventCustomUpdate(CanalEntry.EventType eventType, CanalEntry.RowData rowData) {
System.err.println("DeleteListenPoint");
rowData.getAfterColumnsList().forEach((c) -> System.out.println("By--Annotation: " + c.getName() + " :: " + c.getValue()));
}
}
(4)启动类创建
在com.changgou中创建启动类,代码如下:
@SpringBootApplication(exclude={DataSourceAutoConfiguration.class})
@EnableEurekaClient
@EnableCanalClient
public class CanalApplication {
public static void main(String[] args) {
SpringApplication.run(CanalApplication.class,args);
}
}
(5)测试
启动canal微服务,然后修改任意数据库的表数据,canal微服务后台输出如下:
6.5 广告同步
如上图,每次执行广告操作的时候,会记录操作日志到mysql binlog,然后将操作日志发送给canal,canal将操作记录发送给canal微服务,canal微服务根据修改的分类ID调用content微服务查询分类对应的所有广告,canal微服务再将所有广告存入到Redis缓存。
6.5.1 content微服务搭建
在changgou-service中搭建changgou-service-content微服务,对应的dao、service、controller、pojo由代码生成器生成。
首先在changgou-service-api中创建changgou-service-content-api,将pojo拷贝到API工程中,如下图:
(1)pom.xml配置
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>changgou-service</artifactId>
<groupId>com.changgou</groupId>
<version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<artifactId>changgou-service-content</artifactId>
<dependencies>
<dependency>
<groupId>com.changgou</groupId>
<artifactId>changgou-service-content-api</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>
</dependencies>
</project>
(2)application.yml配置
server:
port: 18084
spring:
application:
name: content
datasource:
driver-class-name: com.mysql.jdbc.Driver
url: jdbc:mysql://192.168.211.132:3306/changgou_content?useUnicode=true&characterEncoding=UTF-8&serverTimezone=UTC
username: root
password: 123456
eureka:
client:
service-url:
defaultZone: http://127.0.0.1:7001/eureka
instance:
prefer-ip-address: true
(3)启动类创建
@SpringBootApplication
@EnableEurekaClient
@MapperScan(basePackages = {"com.changgou.content.dao"})
public class ContentApplication {
public static void main(String[] args) {
SpringApplication.run(ContentApplication.class);
}
}
6.5.2 广告查询
在content微服务中,添加根据分类查询广告。
(1)业务层
修改changgou-service-content的com.changgou.content.service.ContentService接口,添加根据分类ID查询广告数据,代码如下:
/***
* 根据categoryId查询广告集合
* @param id
* @return
*/
List<Content> findByCategory(Long id);
修改changgou-service-content的com.changgou.content.service.impl.ContentServiceImpl接口实现类,添加根据分类ID查询广告数据,代码如下:
/***
* 根据分类ID查询
* @param id
* @return
*/
@Override
public List<Content> findByCategory(Long id) {
Content content = new Content();
content.setCategoryId(id);
content.setStatus("1");
return contentMapper.select(content);
}
(2)控制层
修改changgou-service-content的com.changgou.content.controller.ContentController,添加根据分类ID查询广告数据,代码如下:
/***
* 根据categoryId查询广告集合
*/
@GetMapping(value = "/list/category/{id}")
public Result<List<Content>> findByCategory(@PathVariable Long id){
//根据分类ID查询广告集合
List<Content> contents = contentService.findByCategory(id);
return new Result<List<Content>>(true,StatusCode.OK,"查询成功!",contents);
}
(3)feign配置
在changgou-service-content-api工程中添加feign,代码如下:
@FeignClient(name="content")
@RequestMapping(value = "/content")
public interface ContentFeign {
/***
* 根据分类ID查询所有广告
*/
@GetMapping(value = "/list/category/{id}")
Result<List<Content>> findByCategory(@PathVariable Long id);
}
6.5.3 同步实现
(1)依赖添加
一会要在canal微服务中监控数据变化,同时通过feign调用changgou-service-content
微服务,所以我们需要让canal微服务依赖changgou-service-content-api
,在canal微服务的pom.xml中添加如下依赖:
<!--changgou-service-content-api依赖-->
<dependency>
<groupId>com.changgou</groupId>
<artifactId>changgou-service-content-api</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>
(2)配置redis
修改changgou-service-canal
的application.yml配置文件,添加redis配置,如下代码:
(3)启动类中开启feign
修改CanalApplication,添加@EnableFeignClients
注解,代码如下:
(3)同步实现
修改监听类CanalDataEventListener,实现监听广告的增删改,并根据增删改的数据使用feign查询对应分类的所有广告,将广告存入到Redis中,代码如下:
上图代码如下:
@CanalEventListener
public class CanalDataEventListener {
@Autowired
private ContentFeign contentFeign;
@Autowired
private StringRedisTemplate stringRedisTemplate;
/***
* 修改广告数据修改监听
* 同步数据到Redis
* @param eventType
* @param rowData
*/
@ListenPoint(destination = "example", schema = "changgou_content", table = {"tb_content"}, eventType = {CanalEntry.EventType.UPDATE,CanalEntry.EventType.INSERT,CanalEntry.EventType.DELETE})
public void onEventCustomUpdate(CanalEntry.EventType eventType, CanalEntry.RowData rowData) {
//获取广告分类的ID
String categoryId = getColumn(rowData, "category_id");
//根据广告分类ID获取所有广告
Result<List<Content>> result = contentFeign.findByCategory(Long.valueOf(categoryId));
//将广告数据存入到Redis缓存
List<Content> contents = result.getData();
stringRedisTemplate.boundValueOps("content_"+categoryId).set(JSON.toJSONString(contents));
}
/***
* 获取指定列的值
* @param rowData
* @param columnName
* @return
*/
public String getColumn(CanalEntry.RowData rowData,String columnName){
for (CanalEntry.Column column : rowData.getAfterColumnsList()) {
if(column.getName().equals(columnName)){
return column.getValue();
}
}
//有可能是删除操作
for (CanalEntry.Column column : rowData.getBeforeColumnsList()) {
if(column.getName().equals(columnName)){
return column.getValue();
}
}
return null;
}
}
测试:
修改数据库数据,可以看到Redis中的缓存跟着一起变化
总结
1.实现nginx配置使用lua脚本从mysql获取数据存入redis
2.实现nginx配置从redis数据存入nginx缓存
3.实现数据库监听的操作:增加 删除 修改,实现自定义的监听
4.实现广告微服务的搭建,实现广告微服务中通过广告类型查询广告列表的接口
5.通过canal微服务调用广告微服务,获取最新的广告信息,同步到redis
更多推荐
所有评论(0)