记得几年前刚学程序的时候经常听看网络上留传的文章说ACCESS的极限是100M,超了性能就会直线下降,一直到现在都是这 样,可以很轻易的找出很多关于ACCESS的是非常差的数据库的文章。 几年前我学习用ASP做新闻系统由于ACCESS是最方便的数据库(我认为是最方便的),当时用的就是ACCESS+ASP的组合, 当时心里想反正做了这个东西我的站访问量低对ACCESS应该也可以满足要求。(直到今天我还是用ACCESS+ASP的组合) 最近几年给很多企业做了不少的网站,也全是ACCESS,不过做的过程中的思想就一个,ACCESS是性能低下的数据库,不适合 做高访问量的站来使用。这种思想一直延续到去年接了一个站点活。这个网站原先的结构是ASP+SQL,属于行业类网站,每天访 问量不是很高大约日/IP2000左右,浏览量1~2万次左右,但数据量很高,有超过15万条数据。这个客户在我们公司做了百度和 3721,那段时间他的站所在的服务器频繁死机,最后服务器管理员确认是他的网站有问题,最终找到我希望我可以帮他解决问 题。我接手后先分析了他原先数据的结构,发现很多字段都是多余的,也没使用关系,甚至有的数据表连索引也没有,总之问题 多多。后来我对数据库数据和程序进行了优化处理经过测试可以达到每天10万次以上不会出现服务器死掉的状况。(开了多个页 使用META连续刷新一天)值得注意的是这次我用的数据库是ACCESS而不是原先的SQL。 至此我彻底对ACCESS性能底下的看法有了很大改观,一至于我现在自己的一个小站也是用ACCESS,目前数据库已经600多M 了,性能目前还不错,一般每天浏览量在20~30万次左右,服务器CPU占用在15%上下。 写到这里我并不是贬低SQL,事实上SQL的确比ACCESS强我不否认。我认为一个一个数据库的好坏很大程度上取决于一个程序 员有没有真正了解数据用好数据库,有没有针对程序做好优化,程序是否合理。 在这里我想问问非常熟悉ACCESS的朋友,ACESS到底能承受什么样的极限参数才会性能严重下降?如果是SQL又能承受多少?