今天业务上需要对接 webscocket
接口 服务端推流是经过压缩的数据, 百度顺道发现一篇文章
gzcompress的坑 坑踩得比较实在 收藏一下 防止自己也踩坑
【一、效果】
800k
的数据压缩成100k多。效果还是不错。
【二、为什么要压缩】
数据库存不下啊 数据库有个 max_allowed_packet
限制数据大小。没有改mysql配置的权限,也不想劳烦其他人干脆自己动手。
【三、使用】
失败的尝试千千万万,只说成功的路
<?php
//入库
$src_data1 = file_get_contents('bb.txt');
//先json,再压缩。如果顺序相反,json的结果是空。
$desc_data1 = json_encode($src_data1,JSON_UNESCAPED_UNICODE);
$desc_data2 = gzcompress($desc_data1);
//上面两步如果简写成 gzcompress(json_encode(数组));得到的会是一顿乱码。
//所以gzcompress()的参数只能是一个变量
$desc_data3 = base64_encode($desc_data2);//为了入库需要base64
file_put_contents('aa.txt', $desc_data3);//入库。这里存储文件代替
//出库
$src_data11 = file_get_contents('aa.txt');
$desc_data11 = base64_decode($src_data11);
$desc_data12 = gzuncompress($desc_data11);//解压缩
$desc_data13 = json_decode($desc_data12,true);
file_put_contents('cc.txt',$desc_data13);
//对比一下aa.txt与cc.txt的内容。应该是相同的
【四、坑】
如果要json_encode
的话,要先于gzcompress
执行。如果gzcompress
先执行,json_encode
返回的是空值。gzcompress
(json_encode(数组)
)这种写法是不对的,得到的结果是一堆乱码。必须分开写,json_encode
处理结果赋值给一个变量,然后gzcompress
处理这一变量gzcompress
结果直接存入数据库不会成功。可以base64_encode
一下。
个人总结:
数据库受 max_allowed_packet
限制, 压缩数据在入库数据, gzcompress(json_encode(数组))
乱码 base64
加密后才能入库 (直接入库乱码)