0

出于测试目的,我尝试使用以下 conf 文件在单个主机中创建 ceph 文件系统

[global]
        log file = /var/log/ceph/$name.log
        pid file = /var/run/ceph/$name.pid
[mon]
        mon data = /srv/ceph/mon/$name
[mon.mio]
host = penny
mon addr = 127.0.0.1:6789
[mds]
[mds.mio]
host = penny
[osd]
osd data = /srv/ceph/osd/$name
osd journal = /srv/ceph/osd/$name/journal
osd journal size = 1000 ; journal size, in megabytes
[osd.0]
host = penny
devs = /dev/loop1

/dev/loop1 使用 XFS 格式化,实际上是一个 500Mbs 的文件(尽管这无关紧要)一切正常,运行状况显示:

 sudo ceph -s
2013-12-12 21:14:44.387240    pg v111: 198 pgs: 198 active+clean; 8730 bytes data, 79237 MB used, 20133 MB / 102 GB avail
2013-12-12 21:14:44.388542   mds e6: 1/1/1 up {0=mio=up:active}
2013-12-12 21:14:44.388605   osd e3: 1 osds: 1 up, 1 in
2013-12-12 21:14:44.388738   log 2013-12-12 21:14:32.739326 osd.0 127.0.0.1:6801/8834 181 : [INF] 2.30 scrub ok
2013-12-12 21:14:44.388922   mon e1: 1 mons at {mio=127.0.0.1:6789/0}

但是当我尝试挂载文件系统时

sudo mount -t ceph penny:/ /mnt/ceph
mount error 5 = Input/output error

通常的答案指向 ceph-mds 没有运行,但它实际上正在工作:

root      8771  0.0  0.0 574092  4376 ?        Ssl  20:43   0:00 /usr/bin/ceph-mds -i mio -c /etc/ceph/ceph.conf

事实上,我以前使用这些说明http://blog.bob.sh/2012/02/basic-ceph-storage-kvm-virtualisation.html以前一字不差地设法使它工作,但在我再次尝试后,我得到了相同的结果问题。知道什么可能失败了吗?

更新如评论所示,dmesg显示有问题

[ 6715.712211] libceph: mon0 [::1]:6789 connection failed
[ 6725.728230] libceph: mon1 127.0.1.1:6789 connection failed
4

1 回答 1

1

尝试使用 127.0.0.1。看起来内核正在解析主机名,但 127.0.1.1 很奇怪,也许它没有响应 IPv6 环回。

于 2013-12-12T20:58:36.230 回答