出于测试目的,我尝试使用以下 conf 文件在单个主机中创建 ceph 文件系统
[global]
log file = /var/log/ceph/$name.log
pid file = /var/run/ceph/$name.pid
[mon]
mon data = /srv/ceph/mon/$name
[mon.mio]
host = penny
mon addr = 127.0.0.1:6789
[mds]
[mds.mio]
host = penny
[osd]
osd data = /srv/ceph/osd/$name
osd journal = /srv/ceph/osd/$name/journal
osd journal size = 1000 ; journal size, in megabytes
[osd.0]
host = penny
devs = /dev/loop1
/dev/loop1 使用 XFS 格式化,实际上是一个 500Mbs 的文件(尽管这无关紧要)一切正常,运行状况显示:
sudo ceph -s
2013-12-12 21:14:44.387240 pg v111: 198 pgs: 198 active+clean; 8730 bytes data, 79237 MB used, 20133 MB / 102 GB avail
2013-12-12 21:14:44.388542 mds e6: 1/1/1 up {0=mio=up:active}
2013-12-12 21:14:44.388605 osd e3: 1 osds: 1 up, 1 in
2013-12-12 21:14:44.388738 log 2013-12-12 21:14:32.739326 osd.0 127.0.0.1:6801/8834 181 : [INF] 2.30 scrub ok
2013-12-12 21:14:44.388922 mon e1: 1 mons at {mio=127.0.0.1:6789/0}
但是当我尝试挂载文件系统时
sudo mount -t ceph penny:/ /mnt/ceph
mount error 5 = Input/output error
通常的答案指向 ceph-mds 没有运行,但它实际上正在工作:
root 8771 0.0 0.0 574092 4376 ? Ssl 20:43 0:00 /usr/bin/ceph-mds -i mio -c /etc/ceph/ceph.conf
事实上,我以前使用这些说明http://blog.bob.sh/2012/02/basic-ceph-storage-kvm-virtualisation.html以前一字不差地设法使它工作,但在我再次尝试后,我得到了相同的结果问题。知道什么可能失败了吗?
更新如评论所示,dmesg显示有问题
[ 6715.712211] libceph: mon0 [::1]:6789 connection failed
[ 6725.728230] libceph: mon1 127.0.1.1:6789 connection failed