と言うわけで、さっそく準備ができたようなので比較してみたいと思います。 以下、計測ログ等。
お名前.comサーバ:
onamaeVPS $ grep processor /proc/cpuinfo |wc -l
16
onamaeVPS $ time for ((i=0; i<100000; i++)); do :; done
real 0m0.726s
user 0m0.381s
sys 0m0.345s
onamaeVPS $ time for ((i=0; i<100000; i++)); do :; done
real 0m0.842s
user 0m0.422s
sys 0m0.420s
onamaeVPS $ time for ((i=0; i<100000; i++)); do :; done
real 0m0.787s
user 0m0.257s
sys 0m0.530s
onamaeVPS $ grep -e MemTotal -e Swap /proc/meminfo
MemTotal: 1048576 kB
SwapCached: 0 kB
SwapTotal: 0 kB
SwapFree: 0 kB
onamaeVPS $ df -T
Filesystem Type 1K-ブロック 使用 使用可 使用% マウント位置
/dev/vzfs vzfs 124780544 17436724 107343820 14% /
none tmpfs 524288 4 524284 1% /dev
onamaeVPS $ uname -a
Linux 0r2.info 2.6.18-028stab068.9 #1 SMP Tue Mar 30 17:22:31 MSD 2010 x86_64 x86_64 x86_64 GNU/Linux
onamaeVPS $ cat /etc/redhat-release
CentOS release 5.5 (Final)
さくらVPS:
sakuraVPS $ grep processor /proc/cpuinfo |wc -l
2
sakuraVPS $ time for ((i=0; i<100000; i++)); do :; done
real 0m0.497s
user 0m0.486s
sys 0m0.010s
sakuraVPS $ time for ((i=0; i<100000; i++)); do :; done
real 0m0.491s
user 0m0.478s
sys 0m0.013s
sakuraVPS $ time for ((i=0; i<100000; i++)); do :; done
real 0m0.576s
user 0m0.568s
sys 0m0.008s
sakuraVPS $ grep -e MemTotal -e Swap /proc/meminfo
MemTotal: 510532 kB
SwapCached: 0 kB
SwapTotal: 2048276 kB
SwapFree: 2048276 kB
sakuraVPS $ df -T
Filesystem Type 1K-blocks Used Available Use% Mounted on
/dev/hda2 ext3 18222732 1861328 15420800 11% /
/dev/hda1 ext3 101086 17861 78006 19% /boot
tmpfs tmpfs 255264 0 255264 0% /dev/shm
sakuraVPS $ uname -a
Linux www5296u.sakura.ne.jp 2.6.18-194.8.1.el5 #1 SMP Thu Jul 1 19:04:48 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux
sakuraVPS $ cat /etc/redhat-release
CentOS release 5.5 (Final)
というわけで、ざっくり評価まとめは以下のような感じ。
- CPU数はお名前.comの方が上(8倍)
- メモリ量はお名前.comの方が上(2倍)
- ディスク容量はお名前.comの方が上(6倍以上)
と、ここまではお名前.comのアドバンテージですが、 さくらVPSは、
- 実動作スピードはさくらVPSの方が上(50%以上高速)
- Swapが使える分、ちょっと気楽(必要ならもっとswapを足せば良い)
- 安い!(お名前.comの半額以下)
というアドバンテージがあります。
どちらが良いかはケースバイケースですが、 私はさくらVPSをもうちょっと使ってみようかと考えています。
Comments
comments powered by Disqus