返回第501章 幻数据压缩算法2(2 / 2)脑回路清奇的主角们首页

第一个1对齐:1中间有8个0,其中出现过两次11中间有17个0,其中出现过两次11尾数00000001

第二个1对齐:头数101中间有11个0,其中出现过两次11中间有20个0,其中出现过两次11

第三个1对齐:头数101001中间有11个0,其中出现过两次11中间有14个0,其中出现过两次11尾数000000100000001

也就是说,当1和0不连续的情况出现得越多,那么使用跳个1以及另一个注册表中跳个0的统计数据,的取值越大,压缩比例越高当1和0不连续的情况出现得越少,那么使用跳个1以及另一个注册表中跳个0的统计数据,的取值越小不排除0的情况,压缩比例越高

数据对齐算法

如:

101001000100001000001000000100000001

101010101010101010101010101010101010

100110011001100110011001100110011001

123456789012345678901234567890123456

第一种标尺:10循环充满

完全一致:1,2,3,4,8,12,14,15,16,18,20,21,22,24,26,30,32,34

完全单比特求反:5,6,7,9,10,11,13,17,19,23,25,27,28,29,31,33

第二种标尺:1001循环充满

完全一致:1,2,7,11,14,18,19,21,22,23,26,27,28,30,31,34,35,36

完全单比特求反:3,4,5,6,8,9,10,12,13,15,16,17,20,24,25,29,32,33

第种标尺:

完全单比特一致:,,……

完全双比特一致:,,……

完全多比特一致:,,……

完全单比特求反:,,……

完全双比特求反:,,……

完全多比特求反:,,……

使用的算法越多,那么算法所生成的数据就越多,相应的就可以快速互相校验,从而避免1个比特的篡改导致最终损失1其中的900数据的极端压缩文件异常灾难毕竟压缩率越高,就意味着一旦出现了压缩文件缺失以及特定数据不可读取比如硬件损坏,磁盘坏道,软件权限不足就会导致最终解压缩所缺失的部分越多压缩率越高,就要求容错能力和纠错能力越强,比如说,把1的数据,压缩成1数据,1数据中随机有百分之五十的数据不可读取,是否能够通过剩下的百分之五十数据逆推出整个1数据内容?从而可以解压缩成原先的压缩前的1数据当然了,容错和纠错就难免会增加试错和穷举的运算量。