搭起来了一个Linux平台

搭起来了一个Linux平台

人类基因组的数据量是在是太大了。全部解压居然有5G++。

我整了一个100M+ Fasta数据下来测试一下,居然电脑就累成这样下:

[root@andLinux ~]# free -m
                      total       used       free     shared    buffers     cached
Mem:              377        373          3          0          2          6
-/+ buffers/cache:       364         12
Swap:             255        128        127

物理内存基本上100%被消耗了。

如果把基因数据撤走,则内存恢复为:

[root@andLinux ~]# free -m
                 total       used       free     shared    buffers     cached
Mem:           377         21        355          0          2          8
-/+ buffers/cache:     10        366
Swap:          255         10        245

真是没有天理啊。估计正式测算的时候至少要安装4G+内存的电脑才会比较流畅。不能虐待我自己的电脑了。

这两个礼拜先在自己的电脑上摸个门道出来,然后在实验室的电脑安装计算平台,用老板的电脑开算,管他算几天几夜呢。
晕 咋我的电脑total 1001  used 687  free 313我什么都没弄 就用了这么多。奇怪啊。??
free -m
             total       used       free     shared    buffers     cached
Mem:           876        850         26          0         14        285
-/+ buffers/cache:        550        326
Swap:         1027          0       1027
我的是这样的,可在系统监视器中看到的数据是只用了566M内存
系统没有卡的感觉,如果 是按free-m命令得出的数据,系统是没有那么流畅的。
不知是什么原因?