スポンサーサイト
上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。


スポンサー広告 | --:--:--
Windows8 マシンの更新

動機

Windows のデスクトップマシンはちょっと古く、 CPU が AMD Athron X2 BE-2350、 マザーボードが ASUS の M2A-VM という構成だったのですが、 Windows 8 Pro 版にアップグレードしたら以下のような問題があって

  • オンボードビデオ(AMD 690G)を認識しないので標準ドライバで動作する。画面が狭い。
  • CPUがSLATに対応していないので、せっかくの仮想化機能が使えない。

いい機会なのでハードウェアを更新することにしました。

用意したパーツ

  • CPU: AMD A4-5300
  • マザーボード: GIGABYTE F2A75M-D3H
  • メモリ: ADATA AX3U1866GC4G9B-DG2 (DDR3 1866 4GB x2)

今回は割と安価な構成です。A4-5300 はメモリクロックが 1866 MHz まで対応しているようなので、DDR3 1866 のメモリを選んでみました。これだけ値段がちょっと高めです。

ケース/電源やハードディスクは今まで使っていたものを流用。

作業とトラブル

ハードウェアの載せ替えはマザーボード/CPU/メモリを交換するだけ。配線して終わり。

Windows 8 は普通に起動したので、最新ドライバー(Catalyst 12.10)をダウンロード/インストール。

なぜか画面の一部が黒くなる問題が発生。試しにドライバーをβ版 (Catalyst 12.11 beta)にしても変わらない。なんだか不安定だけど今は調査する時間がとれない。

早くなった?

Windows エクスペリエンス インデックスの値は 3.1 から 5.9 に向上したけど、体感的にはあまり変わらないように思えます。

a4-5300-experience-index.jpg

消費電力をワットチェッカーで測ってみたところ、アイドル時で 24-27W くらい。



続きを読む >>
スポンサーサイト

テーマ:PCパーツ - ジャンル:コンピュータ

Windows | 00:52:22 | トラックバック(0) | コメント(0)
GIGABYTE GA-C847N 購入

約6年動いていたサーバのマザーボード/CPUが故障したので交換することにしました。

マザーボード購入

新しいマザーボード/CPUとして選んだのは GIGABYTE GA-C847N、CPUは Celeron 847 でデュアルコアの 1.1 GHz。ギガビットLANが2ポートあるのでサーバとして使うのに良さそう。最近少なくなったシリアルポートもあるのでディスプレイを繋がなくてもログインできる。

CentOS 6.3 をインストール

OS はサーバ用で使い慣れている CentOS 6.3 を使うことにした。8GB のメモリを活用すべく x86_64 版を使う。

このマザーボードは UEFI なのですが、私は UEFI を扱うのは初めてなのでちょっととまどう。ちょっと知識が追いついていない?おぉっマウスカーソルが・・・邪魔!?

普通に CentOS 6.3 の DVD を用意してインストール作業を開始しようとしたが、 なぜか USB 接続の DVD ドライブが作成した DVD-R メディアを認識せず、インストール用に CD-R (EFI版のnetinstallイメージ)を焼き直したらインストーラが起動。このあたりは深く追求しなかったので原因不明。

動作状況

特にトラブルは無し、nic は r8169 で認識されている。

ワットチェッカーで消費電力を測定したが、SSD のみ接続した状態での消費電力は 22w くらい。起動時でも 29w 程度なので、消費電力はまあまあ。

CPU のクロックは 800MHz から 1100 MHz まで変動するようになっている。

# cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_available_frequencies
1100000 1000000 900000 800000

cpuinfo の情報はこんな感じ

# cat /proc/cpuinfo 
processor	: 0
vendor_id	: GenuineIntel
cpu family	: 6
model		: 42
model name	: Intel(R) Celeron(R) CPU 847 @ 1.10GHz
stepping	: 7
cpu MHz		: 800.000
cache size	: 2048 KB
physical id	: 0
siblings	: 2
core id		: 0
cpu cores	: 2
apicid		: 0
initial apicid	: 0
fpu		: yes
fpu_exception	: yes
cpuid level	: 13
wp		: yes
flags		: fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm sse4_1 sse4_2 x2apic popcnt xsave lahf_lm arat epb xsaveopt pln pts dts tpr_shadow vnmi flexpriority ept vpid
bogomips	: 2195.05
clflush size	: 64
cache_alignment	: 64
address sizes	: 36 bits physical, 48 bits virtual
power management:

processor	: 1
vendor_id	: GenuineIntel
cpu family	: 6
model		: 42
model name	: Intel(R) Celeron(R) CPU 847 @ 1.10GHz
stepping	: 7
cpu MHz		: 800.000
cache size	: 2048 KB
physical id	: 0
siblings	: 2
core id		: 1
cpu cores	: 2
apicid		: 2
initial apicid	: 2
fpu		: yes
fpu_exception	: yes
cpuid level	: 13
wp		: yes
flags		: fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm sse4_1 sse4_2 x2apic popcnt xsave lahf_lm arat epb xsaveopt pln pts dts tpr_shadow vnmi flexpriority ept vpid
bogomips	: 2195.05
clflush size	: 64
cache_alignment	: 64
address sizes	: 36 bits physical, 48 bits virtual
power management:


Linux | 19:15:24 | トラックバック(0) | コメント(0)
NAS導入

QNAP の NAS TS-212 を導入して、満足に動作するようになるまでの記録

もくろみ

以下のような理由で製品選定

  • NAS としては安価。
  • iSCSI や NFS が使えるので、Windows 以外でも使いやすい。
  • Linux ベースらしいので、何かあっても自分で何とかなるだろう。

ネットワークを認識させる

Windows 用の設定ツールがあったが、そんなものは使わない。 うちは DHCP を設定しているので、MAC アドレスでIPアドレスが固定されるように設定した。

ハードディスクを認識してくれない

余っていた 1TB のハードディスクを組み込んだのだが、何も考えずに Linux の Software RAID のパーティションが作成されていたハードディスクを入れたので、QNAP のファームウェアが誤認識してしまった。

Linux で使っていたハードディスクを組み込む場合はパーティション情報を消してから組み込んだ方がよかったかも。

しょうがないので、いろいろ調べながら何とかすることにした。 (http://wiki.qnap.com/wiki/Main_Page の情報が参考になった。)

まずは ssh でログインして調査する。

2台のハードディスクのパーティションを調べるとこんな感じになってしまっていた。

/sbin/fdisk -l /dev/sda
(中略)
   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1          66      530125   83  Linux
/sbin/fdisk -l /dev/sdb
(中略)
   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          66      530125   83  Linux
/dev/sdb2              67         132      530142   83  Linux
/dev/sdb3             133      243138  1951945693   83  Linux
/dev/sdb4          243139      243200      498012   83  Linux

ということで、sda のパーティションが異常になっていたので、sdb のパーティションに合わせた。 (パーティションのIDはfdではなくて83のままで良いらしい)

/proc/mdstat で RAID の認識状態を確認すると、こんな感じ

# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md2 : active raid1 sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]
      
md13 : active raid1 sdb4[1] sda4[0]
      458880 blocks [2/2] [UU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sdb1[1] sda1[0]
      530048 blocks [2/2] [UU]
      bitmap: 5/65 pages [20KB], 4KB chunk

unused devices: 

RAID の認識がおかしいのは、/dev/md* のデバイスファイルが存在しないせいのようなので作成する。

mknod /dev/md13 b 9 13

これでリブートすると正しく?ハードディスクを認識してくれた。

しかしまだ、ハードディスクに初期データが書き込まれていないので管理画面は表示されない。 ということで、以下の手順でマニュアル操作によるファームウェア更新を行った。

http://wiki.qnap.com/wiki/Manually_Updating_Firmware

修正後の RAID の状態はこんな感じ

# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] 
md2 : active raid1 sdb2[1] sda2[0]
      530048 blocks [2/2] [UU]
      
md0 : active raid1 sda3[0] sdb3[1]
      975193600 blocks [2/2] [UU]
      
md13 : active raid1 sdb4[0] sda4[1]
      458880 blocks [2/2] [UU]
      bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sdb1[1]
      530048 blocks [2/2] [UU]
      bitmap: 1/65 pages [4KB], 4KB chunk

unused devices: 

iSCSI が遅いのでチューニングしてみる

仮想マシンのためのディスク領域を iSCSI で作成したのだが、自分の想定よりちょっと遅い。 Jumbo フレーム(MTU=4074)を設定した状態でも以下のような速度。 (仮想マシン上から bonnie++ で測定)

$ bonnie++
Version 1.03e       ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
basil            2G 17952  94 26033   6 22698   9 22484  97 519116  96 13671 150
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  9793  99 251195  99 51540 100 10682  99 337300  96 54170 100

NFS で同様にVMを作成して測定してみたが、こちらも遅い。

$ bonnie++
Version 1.03e       ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
basil            2G 17617  97 28211   7 13897   6 19878  93 76731  14 13101 151
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 12636  99 254833 101 54369  99 13444  99 355631  99 50897 100

ということで、試行錯誤してチューニング作業を行った。これは普通の Linux サーバと同じ。

まず最初に、ファイルアクセスに使うプロトコル(NFS/iSCSI/SMB)はTCPベースになっているのでTCP/IPはきっちりチューニングしておく必要がある。

比較的大きいファイルを扱うが、同時アクセスは少ない環境なのでバッファはちょっと多めに設定した。 どこまでバッファを増やせばいいのかは iperf をインストールして、ネットワーク速度を測定しながら設定をすこしずつ変更して最適な値を求めてみた。

tcp_mtu_probing と tcp_timestamps は要らないかもしれないが、最近のディストリビューションでは有効化されているので合わせてみた。

nic のオフロードはなぜか有効になっていなかったので、必要そうなものは設定した。 nic のオフロードを設定するとこのNASの場合は1割は性能が向上する。

独自の設定を入れたい場合は情報(http://wiki.qnap.com/wiki/Autorun.sh)によると、autorun.sh に書けばよいということなので、以下のような設定を書いた。

# mount -t ext2 /dev/mtdblock5 /tmp/config
# cat /tmp/config/autorun.sh
#!/bin/sh
echo 4096 > /sys/block/md0/queue/read_ahead_kb
echo 2048 > /sys/block/sda/queue/read_ahead_kb
echo 2048 > /sys/block/sdb/queue/read_ahead_kb
echo 1 > /proc/sys/net/ipv4/tcp_mtu_probing
echo 1 > /proc/sys/net/ipv4/tcp_timestamps
echo '4096 2097152 16777216' > /proc/sys/net/ipv4/tcp_rmem
echo '4096 1048576 16777216' > /proc/sys/net/ipv4/tcp_wmem
echo '43200 50400 86400' > /proc/sys/net/ipv4/tcp_mem
echo 5000 > /proc/sys/net/core/netdev_max_backlog
/sbin/ifconfig eth0 txqueuelen 5000
/usr/sbin/ethtool -K eth0 tx on
/usr/sbin/ethtool -K eth0 tso on
/usr/sbin/ethtool -K eth0 gso on

チューニング完了後、iSCSI上のVMでベンチマークを取ると以下のような速度になった。 読み出し速度が2倍くらいになっている。

$ bonnie++
Version 1.03e       ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
basil            2G 28245  60 29685   4 24979   6 52584  92 1140041  92 23045 152
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 28208  95 506883  98 123280 100 31233  99 646413 102 124529 100


続きを読む >>

テーマ:UNIX/Linux - ジャンル:コンピュータ

Linux | 09:21:19 | トラックバック(0) | コメント(0)

FC2Ad

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。