HSQLDB 数据文件变大优化处理
HSQLDB 数据文件变大优化处理
1.问题
hsqldb在频繁的增删改后,删除数据占据的空间并没有释放,我称之为
空闲空间,data文件大小默认是不会变化的,随着时间的跨越,data文件会不断变大,默认hsqldb data文件上限是2G,这个是由于hsqldb是由纯java开发,读取文件的一个上限吧,达到这个上限,hsqldb就无法启动,问题就随之产生。
2.解决办法
(1)用SQL执行SHUTDOWN COMPACT
弊端:此种方式会回收
空闲空间,但同时也会停止掉hsqldb服务,此种方式在需要hsqldb服务一直开启的应用中不可取
(2)用SQL执行CHECKPOINT DEFRAG(
亲自实践可行)
推荐理由:此种方式立即回收
空闲空间,而且不会关闭hsqldb服务
(3)在配置文件***.script文件中设置SET CHECKPOINT DEFRAG 200;
解释:当
空闲空间大小达到200M的时候开始回收,具体大小可以自行更改
3.建议
个人建议把回收空间的处理放入quartz定时调度任务中,比如每日晚上11点或者每周一或者每月起始日开始回收空间,具体时间可以由cron表达式设置,根据个人项目中data文件大小达到2G的时间跨越而定。
4.附件为HSQLDB中文手册