一个高效的二进制数据补丁算法
·
一个高效的二进制数据补丁算法(原创)
作者: housisong@hotmail.com 2006.04.11
作者: housisong@hotmail.com 2006.04.11
tag:补丁,patch,补丁算法,后缀数组
(2013-05-31: 重新用C\C++实现的一个开源版本说明:
开源我的基于字节的数据补丁算法库HDiffPatch
源码网址:
GitHub - sisong/HDiffPatch )
补丁算法在很多地方都很有用,可以用来制作发布软件的升级包、不同版本源代码的增量备份、
数据的增量储存等等;这里介绍一种原创的高效的二进制数据补丁算法。
对于文本文件,按行来处理可能是一种直观的方案:求出新数据和老数据相比增加的行、删除的行、修改的行等等;但这种算法对于一般的二进制数据不太适用,本文给出的是一个以二进制数据(实际上是基于字节)为对象的解决办法(当然它也能够很好的处理文本文件);
对于文本文件,按行来处理可能是一种直观的方案:求出新数据和老数据相比增加的行、删除的行、修改的行等等;但这种算法对于一般的二进制数据不太适用,本文给出的是一个以二进制数据(实际上是基于字节)为对象的解决办法(当然它也能够很好的处理文本文件);
补丁算法简单来说就是求出两个数据块不一致的地方;这些不一致描述起来可能包括(有重叠):保留的数据、增加的数据、删除的数据、修改的数据、移动的数据等。本算法只使用保留的数据和增加的数据来表示这种不一致(注意,这种表示是完备的!)。 设原来的数据块为OldData,新的数据块为NewData,两个数据之间应该有很多相同的数据段(否则就直接拷贝,不用打补丁了);现在要求求出一个数据差PatchData,它能够在只有OldData和PatchData的情况下重新生成NewData;
算法的前提和假设:假设两个数据块为OldData大小M字节,NewData大小N字节;OldData和NewData有很多相同的数据段;如果我们构造一个 N(宽)*M(高) 大小的只包含false和true的布尔值矩阵E,令矩阵中i,j处的的元素值E[i,j],E[i,j]=(NewData[i]==OldData[j]); (注意:矩阵E不一定要实际生成,因为它的元素值很容易得到); (这时E的(0,0)点在左上角,(N-1,M-1)点在右下角;)
矩阵E中相邻的连续的true值将组成很多的直线段;对于这些直线段推理可以得知: 横线“-”是没有任何意义的(说明OldData中有一段数据由单个字符组成),竖线“|”对于最后的压缩效果意义不大(说明NewData中有一段数据由单个字符组成),右斜线'/'说明有一段NewData和一段OldData数据正好顺序颠倒(一般的应用中假设它很少见而不考虑);那么算法现在的任务就是要在矩阵E中找到多条由true组成的连续左斜线'\',并且这些左斜线长度大于一个常数(我得到的经验值为7,更短的直线段意义不大);在这些左斜线中找出对“覆盖”NewData最佳的一种直线组合;那么补丁数据PatchData将由这些直线数据和NewData中没有被覆盖到的数据所组成; 理论上这将得到最好的补丁数据!
找出满足要求的左斜线的算法:建立OldData的后缀数组OldDataStr,然后用NewData来匹配,从而找出所有的匹配(即左斜线); (尝试过使用后缀树,算法复杂度线性O(N),速度会快一点,但内存消耗太大了;其实N*log2(N)的算法也不慢:)
算法伪代码:
int NodeSize=1;//增大NodeSize的值可以减小内存需求,加快速度,但得到的PatchData会稍大一点
OldDataStr=new (*Byte)[M/NodeSize];
for (i=0 to (OldDataSize/NodeSize)-1) OldDataStr[i]=&OldData[i*NodeSize];
QuickSortAsString(OldDataStr);//排序后缀数组;排序方法是把元素OldDataStr[i]看作是从OldDataStr[i]开始到&OldData[M]结束的数据字符串(注意可以有0),按字符串大小排序;(这里是最耗时的操作,可以做一些排序优化,比如用后缀树相关排序算法)
it=&NewData[0];//将it看作从it开始到&NewData[N]结束的数据字符串;
while (it<&NewData[N])
{
itfinded=FindInOldDataStr(it);//在OldDataStr表中查找it字符串的插入位置;C++中可以利用LowerBound
itfinded=BestEqualLength(itfinded)//在itfinded字典位置附近得到最接近it的位置;也就是最长的相同字符串前缀(其他长度的舍弃)
if (EqualLength(itfinded,it)>AConstLength)// AConstLength=7,它体现分段代价
AddOldLine(it,itfinded)//找到了NewData中的一段数据可以用OldData中的数据代替
++it;
}
处理左斜线:令找到的所有左斜线为集合L,现在的任务是找到一条穿过这些直线的最佳路径;(先对L进行排序)如果其中一条线a完全覆盖另一条线b,则从L中删除b;如果a,b两个线段在一条直线上,并且间隔很小,则他们是可以优化的(优化方法是:把它们联接成一条直线段,中间的间隔部分对应的NewData数据同样需要放到PatchData中),对于不容易优化的独立直线,并且比较短(经验值18),可以从L中删除;对于没有重叠的线段,直接选为路径直线段,对于有重叠的线段,需要计算通过它们的各种组合所产生的大小代价(带权值的路径搜索);简单处理的话也可以一次只处理少量重叠的线段,毕竟重叠出现的不多;
生成补丁数据PatchData:将路径直线段数据保存到PacthData中,将没有被直线段覆盖的NewData数据拷贝到PatchData中;
考虑中的改进:为exe等可执行文件作优化,利用可执行文件的特点(就是大量偏移地址和绝对地址),先做一些过滤处理,然后再使用上面的算法(主要是减少地址值造成的差异、并且使数据对压缩器更友好)。
另外: 7zip代码库中的bcj过滤器(为提高可执行程序数据的压缩率而设计)在diff&patch的场景下也能起到不错的效果。
数据还原算法: 输入PatchData和OldData,输出NewData。 按PatchData的直线段描述从OldData中拷贝数据到新的NewData数据区中,然后拷贝PachData中保存的NewData差异数据到现在的NewData数据区中,完成。
采用的一些优化: 重复数据删除过滤器、用后缀树或后缀数组排序来优化diff速度、尽量选择相近的连续的线和使其共线、 相邻共线合并优化(exe地址值造成的差异将被压缩的更小)、最佳覆盖线路径搜寻、数据按类型相同的放在一起(有利于压缩)、新旧文件中完全相同的文件不进入diff(优化速度)、补丁包使用lzma压缩发布、最近相似的多个旧版本到最新版本的合并优化补丁包
( 我使用过
VPatch,它是一个开放源代码的补丁工具,二进制压缩,很好用,在inno安装工具中也有使用,压缩效果还不错;地址:
VPatch - Free Patch Generator
我的算法产生的补丁数据(一些游戏程序)和VPatch产生的补丁数据在压缩后比较,压缩率比VPatch高40%左右! 速度也快出很多!
)
我的算法产生的补丁数据(一些游戏程序)和VPatch产生的补丁数据在压缩后比较,压缩率比VPatch高40%左右! 速度也快出很多!
)
补充:本算法和新版本HDiffPatch的一些区别
. HDiffPatch的-m模式和本算法描述的实现思路几乎一致。本算法不涉及HDiffPatch的-s模式(见blog< 一个基于字节的流式diff算法>)。
. 在覆盖线的选择上,本算法是先找出所有可能的old覆盖线,然后尝试搜寻一条最优覆盖new的路径。而HDiffPatch使用的是贪心算法,在new的当前处理位置选择可能比较好的一条old覆盖线,然后根据当时的情况做一些覆盖线选择的小调整。 HDiffPatch这样处理是为了压低diff时的内存(和算法)的最大复杂度,而做的一些妥协。
. 本算法diff前设计了一个重复数据删除过滤器,处理后后缀树排序速度更快,匹配也更有效。而HDiffPatch并没有提供该过滤器,这样处理是为了降低patch时的内存(和算法)的复杂度,并且不用patch前要求对old数据进行预处理,从而使算法的适应范围更广。为了弥补该不足,HDiffPatch在diff尝试对当前正在处理的数据的可压缩性进行快速评估来部分近似该效果(让匹配更有效,-m后面的参数也是该目的;但当前的评估算法设计的不是很好)。
. 本算法设计支持了多个旧版本的合并补丁包。而HDiffPatch放弃了这样的设计,降低算法的复杂性;针对每个旧版本提供单独的补丁对用户也更友好,每个人都只需下载对自己版本的增量(即更小的文件)。
. HDiffPatch的-m模式和本算法描述的实现思路几乎一致。本算法不涉及HDiffPatch的-s模式(见blog< 一个基于字节的流式diff算法>)。
. 在覆盖线的选择上,本算法是先找出所有可能的old覆盖线,然后尝试搜寻一条最优覆盖new的路径。而HDiffPatch使用的是贪心算法,在new的当前处理位置选择可能比较好的一条old覆盖线,然后根据当时的情况做一些覆盖线选择的小调整。 HDiffPatch这样处理是为了压低diff时的内存(和算法)的最大复杂度,而做的一些妥协。
. 本算法diff前设计了一个重复数据删除过滤器,处理后后缀树排序速度更快,匹配也更有效。而HDiffPatch并没有提供该过滤器,这样处理是为了降低patch时的内存(和算法)的复杂度,并且不用patch前要求对old数据进行预处理,从而使算法的适应范围更广。为了弥补该不足,HDiffPatch在diff尝试对当前正在处理的数据的可压缩性进行快速评估来部分近似该效果(让匹配更有效,-m后面的参数也是该目的;但当前的评估算法设计的不是很好)。
. 本算法设计支持了多个旧版本的合并补丁包。而HDiffPatch放弃了这样的设计,降低算法的复杂性;针对每个旧版本提供单独的补丁对用户也更友好,每个人都只需下载对自己版本的增量(即更小的文件)。
更多推荐
已为社区贡献4条内容
所有评论(0)