后端一次传过来2000万条数据,前端如何处理
要可视化显示设备数据,但数据量非常大,一小时即可产生上百万条,传过来的JSON 文件更是高达几百兆。
原生HTML、JS、echarts 方法直接将json 文件引入渲染,但发现加载时间长达20 秒,并且浏览器会爆内存。
立即学习“前端免费学习笔记(深入)”;
优化建议
1. 策略优化
- 降低采样频率,减少数据量。
- 仅展示 30 秒甚至几分钟内的均值数据,用户放大时再返回 detalle 数据。
2. 优化传输格式
-
使用更具效率的数据传输格式,例如:
3. 时间连续性优化
- 如果数据时间连续,则仅需要传输一个起始时间和时间间隔。
- 如果数据不连续,则使用时间间隔和一组起始时间和结束时间来表示。
4. 持续推送更新
- 使用 EventSource 进行持续推送更新。
- 数据格式采用 base64 编码,传输量为原来的 1.33 倍。
其他尝试方案
- iframe:允许数据跨域传输,但可能会出现加载失败的情况。
- 流式处理:一次处理一部分数据,避免内存爆表。
- 流式传输:根据显示范围逐步拉取数据,类似地图瓦片渲染。
综合上述建议,可优化数据处理,提升可视化性能。