Karp 的技术博客

今天业务上需要对接 webscocket 接口 服务端推流是经过压缩的数据, 百度顺道发现一篇文章

gzcompress的坑 坑踩得比较实在 收藏一下 防止自己也踩坑

【一、效果】

800k的数据压缩成100k多。效果还是不错。

【二、为什么要压缩】

数据库存不下啊 数据库有个 max_allowed_packet限制数据大小。没有改mysql配置的权限,也不想劳烦其他人干脆自己动手。

【三、使用】

失败的尝试千千万万,只说成功的路

<?php
//入库
$src_data1  = file_get_contents('bb.txt');
//先json,再压缩。如果顺序相反,json的结果是空。
$desc_data1 = json_encode($src_data1,JSON_UNESCAPED_UNICODE);
$desc_data2 = gzcompress($desc_data1);
//上面两步如果简写成 gzcompress(json_encode(数组));得到的会是一顿乱码。
//所以gzcompress()的参数只能是一个变量
$desc_data3 = base64_encode($desc_data2);//为了入库需要base64

file_put_contents('aa.txt', $desc_data3);//入库。这里存储文件代替
 
//出库
$src_data11  = file_get_contents('aa.txt');
$desc_data11 = base64_decode($src_data11);
$desc_data12 = gzuncompress($desc_data11);//解压缩
$desc_data13 = json_decode($desc_data12,true);

file_put_contents('cc.txt',$desc_data13);
 
//对比一下aa.txt与cc.txt的内容。应该是相同的

【四、坑】

如果要json_encode的话,要先于gzcompress执行。如果gzcompress先执行,json_encode返回的是空值。
gzcompress(json_encode(数组))这种写法是不对的,得到的结果是一堆乱码。必须分开写,json_encode处理结果赋值给一个变量,然后gzcompress处理这一变量
gzcompress结果直接存入数据库不会成功。可以base64_encode一下。

个人总结:
数据库受 max_allowed_packet 限制, 压缩数据在入库数据, gzcompress(json_encode(数组)) 乱码 base64 加密后才能入库 (直接入库乱码)

让Json更懂中文(JSON_UNESCAPED_UNICODE)

php

版权属于:karp
作品采用:本作品采用 知识共享署名-相同方式共享 4.0 国际许可协议 进行许可。
更新于: 2024年10月17日 09:00
10

目录

来自 《PHP gzcompress 使用中的 坑》