问题标签 [iscsi]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iscsi - 如果我的启动器是“windows ISCSI Initiator”,如何发送带有数据摘要的 pdu
我想将数据摘要与 iscsi pdu 一起使用,我知道摘要的存在和类型是在 LoginPhase 期间协商的。但是如果我使用windows启动客户端如何设置呢?
windows - 如何使用 WMI 确定哪些 Windows 驱动器映射到哪些 SAN 存储设备?
对于 Windows 机器,我想以编程方式确定它的哪些驱动器实际上是 iSCSI 或光纤通道 (FC) 卷,以及它们从哪个存储 (SAN) 设备公开,即实际存储数据的位置。例如,C:\
驱动器可能是My_SAN_Storage_Array (https://mysan.company.org)
通过光纤通道暴露的卷。
理想情况下,我想使用 WMI 来执行此操作,以便也能够为远程主机获取这些数据。我不想使用需要单独部署在每台机器上的特定于 SAN 供应商的工具。
我查看了一堆 WMI 类,但没有发现任何用处,例如Win32_LogicalDisk
不包含任何有用的信息——所有驱动器都被视为本地驱动器;网络 iSCSI/FC 驱动器和本地驱动器之间没有区别。diskpart 也没有被证明有帮助。
至少,我想获得某种驱动器 ID(或 SAN IQN/WWN),我可以使用它来确定底层 SAN 设备。通过查询实际的 SAN 设备,我可以确定哪些 FC/iSCSI 卷 (LUN) 向哪些主机公开,但没有关于 LUN 到 Windows 所看到的实际单个驱动器的映射的信息。例如,我可以确定 LUN LogicalUnitA
(如 SAN 设备所见)已分配给WindowsHostA
,但我不知道如何确定这LogicalUnitA
是C:\
Windows 所见的驱动器。
linux - iSCSI 目标服务器上的已连接客户端信息
我已经使用 targetcli 在 ubuntu 14.04 中创建了 iscsi 目标,有没有办法知道谁连接到目标的详细信息(如 ip、连接状态)
powershell - 查找通过 iSCSI 连接的新驱动器
我正在编写一个通过 ISCSI 连接到目标的 powerscript。我需要找到连接后创建的新驱动器号 ( F:
, G:
, ...)。有什么直接的方法可以找到吗?我的脚本是
虽然不直,但我尝试了另一种方法。
但我也不知道实现第二个想法:(
linux - 在 lio scsi 目标中创建环回设备
我正在使用 Linux LIO 包为后备存储创建环回设备。我正在使用“targetcli”实用程序来发出站点上提到的以下命令 - http://linux-iscsi.org/wiki/Loopback :
但是,我看到在“停用”状态下创建的 fileio 后备库:
如何激活 fileio 后台存储(dev_file_disk)?我的理解是,如果一切设置正确(fileio backstore 处于活动状态),将创建一个新条目 /dev/sdx。那正确吗?
我有一个相关的问题。如果我创建多个 fileio 和/或阻止后台存储。有没有办法可以控制哪些文件io/blockio被创建为环回,而不是全部。
谢谢你,艾哈迈德。
scsi - Warning message when using a big disk and iscsi
There are two servers: Openfiler(v. 2.99) that exports a 5TB disk and Proxmox(v. 3.4) that uses this disk by iscsi-protocol.
When using this disk I see in /var/log/syslog and dmesg-output the following message:
How can I fix this problem? Or does the system not pay attention to it?
Thanks.
iscsi - 已在 targetcliiser enable 中使用的地址
请帮我解决这个问题 我正在使用“targetcli-2.0rc1” 我已经创建了 IP 地址为 192.168.1.11 和端口号的门户:3260 当我正在执行“iser_enable”时,它会引发以下错误
/iscsi/iqn.20...168.1.11:3260> iser_enable Traceback(最近一次调用最后):
文件“/usr/lib/python2.7/dist-packages/configshell/shell.py”,第 983 行,在 run_interactive self._cli_loop()
文件“/usr/lib/python2.7/dist-packages/configshell/shell.py”,第 806 行,在 _cli_loop self.run_cmdline(cmdline)
文件“/usr/lib/python2.7/dist-packages/configshell/shell.py”,第 927 行,在 run_cmdline self._execute_command(path, command, pparams, kparams)
文件“/usr/lib/python2.7/dist-packages/configshell/shell.py”,第 902 行,在 _execute_command 结果 = target.execute_command(command, pparams, kparams)
文件“/usr/lib/python2.7/dist-packages/targetcli/ui_node.py”,第 216 行,在 execute_command 返回 UINode.execute_command(self, command, pparams, kparams)
文件“/usr/lib/python2.7/dist-packages/targetcli/ui_node.py”,第 101 行,在 execute_command pparams, kparams)
文件“/usr/lib/python2.7/dist-packages/configshell/node.py”,第 1405 行,在 execute_command result = method(*pparams, **kparams)
文件“/usr/lib/python2.7/dist-packages/targetcli/ui_target.py”,第 1042 行,在 ui_command_iser_enable self.portal._set_iser_attr(True)
文件“/usr/lib/python2.7/dist-packages/rtslib/target.py”,第 870 行,在 _set_iser_attr fwrite(path, "1")
文件“/usr/lib/python2.7/dist-packages/rtslib/utils.py”,第 106 行,在 fwrite file_fd.close() 中
IOError:[Errno 98] 地址已在使用中
当我使用 Soft-RoCE 时,iser_enable 没有问题......当我尝试使用 Soft-iWarp 时,我遇到了上述问题
我的 ibv_devices o/p 如下
根@VCHN145:~# ibv_devices
根@VCHN145:~#
请帮我解决这个问题
scsi - iSCSI 中的 SCSI 持久保留
在 iSCSI 中,initiator port Id 定义为:iSCSI_Name,i,Initiator_Session_Id
目标端口id定义为:iSCSI_Name,t,Target_Portal_Group_Tag
在发起者发出“PR In - Reserve”SCSI 命令后,与 I_T 关系有关的上述信息被永久保存。如果服务器发生崩溃,发起者重新登录后,发起者很可能会得到一个新的 Initiator_Session_Id。如果是这样,发起者(或任何已注册的发起者)将如何清除保留?
谢谢你,艾哈迈德。
linux - iscsiadm 无法登录除 3260 以外的任何端口
发现成功:
[root@ncdqd0110 iqn.11351.com.xxx:AAA]# iscsiadm -m discoverydb -t sendtargets -p 127.0.0.1:54541 --discover
127.0.0.1:54541,-1 iqn.2495.com.xxx:AAA
登录失败:
[root@ncdqd0110 ~]# iscsiadm --mode node --target iqn.2495.com.xxx:AAA --portal 127.0.0.1:54541 --login
登录【iface:default,target:iqn.2495.com.xxx:AAA,portal:127.0.0.1,54541】(多个)
iscsiadm:无法登录到 [iface:默认,目标:iqn.2495.com.xxx:AAA,门户:127.0.0.1,54541]。
iscsiadm:启动器报告错误(8 - 连接超时)
iscsiadm:无法登录所有门户
这发生在 Redhat v7.0 中。在 Suse 中,它工作正常。
下面给出了一些命令的结果:
[root@ncdqd0110 iqn.2495.com.xxx:AAA]# netstat -rn
内核IP路由表
目标网关 Genmask 标志 MSS 窗口 irtt Iface
0.0.0.0 10.31.224.1 0.0.0.0 UG 0 0 0 eno16780032
10.31.224.0 0.0.0.0 255.255.252.0 U 0 0 0 eno16780032
[root@ncdqd0110 ~]# ip route show
默认通过 10.31.224.1 dev eno16780032 proto static metric 1024
10.31.224.0/22 开发 eno16780032 原始内核范围链接 src 10.31.227.110
开始记录 6.2.0.873-21 node.name = iqn.2495.com.xxx:AAA
节点.tpgt = -1
node.startup = 自动
node.leading_login = 否
iface.net_ifacename = eno16780032
iface.iscsi_ifacename = 默认
iface.transport_name = tcp
iface.vlan_id = 0
iface.vlan_priority = 0
iface.iface_num = 0
iface.mtu = 0
iface.port = 0
iface.tos = 0
iface.ttl = 0
iface.tcp_wsf = 0
iface.tcp_timer_scale = 0
iface.def_task_mgmt_timeout = 0
iface.erl = 0
iface.max_receive_data_len = 0
iface.first_burst_len = 0
iface.max_outstanding_r2t = 0
iface.max_burst_len = 0
node.discovery_address = 127.0.0.1
node.discovery_port = 54541
node.discovery_type = send_targets
node.session.initial_cmdsn = 0
node.session.initial_login_retry_max = 8
node.session.xmit_thread_priority = -20
node.session.cmds_max = 128
node.session.queue_depth = 32
node.session.nr_sessions = 1
node.session.auth.authmethod = 无
node.session.timeo.replacement_timeout = 120
node.session.err_timeo.abort_timeout = 15
node.session.err_timeo.lu_reset_timeout = 30
node.session.err_timeo.tgt_reset_timeout = 30
node.session.err_timeo.host_reset_timeout = 60
node.session.iscsi.FastAbort = 是
node.session.iscsi.InitialR2T = 否
node.session.iscsi.ImmediateData = 是
node.session.iscsi.FirstBurstLength = 262144
node.session.iscsi.MaxBurstLength = 16776192
node.session.iscsi.DefaultTime2Retain = 0
node.session.iscsi.DefaultTime2Wait = 2
node.session.iscsi.MaxConnections = 1
node.session.iscsi.MaxOutstandingR2T = 1
节点.session.iscsi.ERL = 0
node.conn[0].address = 127.0.0.1
节点.conn[0].port = 54541
node.conn[0].startup = 手动
node.conn[0].tcp.window_size = 524288
node.conn[0].tcp.type_of_service = 0
node.conn[0].timeo.logout_timeout = 15
node.conn[0].timeo.login_timeout = 15
node.conn[0].timeo.auth_timeout = 45
node.conn[0].timeo.noop_out_interval = 5
node.conn[0].timeo.noop_out_timeout = 5
node.conn[0].iscsi.MaxXmitDataSegmentLength = 0
node.conn[0].iscsi.MaxRecvDataSegmentLength = 262144
node.conn[0].iscsi.HeaderDigest = 无
node.conn[0].iscsi.IFMarker = 否
node.conn[0].iscsi.OFMarker = 否
结束记录如果有人知道这个问题,请告诉我如何解决这个问题。
centos - 如何在 CentOS scsi-target-utils 包中启用对 ceph 的支持?
我打算将 ceph 重新导出到 iSCSI,但我不能这样做。看起来像 CentOS 7 中的 epel 包scsi-target-utils在没有 rbd 支持的情况下编译。
当我运行时:
我没有看到任何与 ceph 相关的字符串。如ceph站点上所述,rbd 支持补丁已被 tgt 存储库的主线接受。
如何在 CentOS 7 的 scsi-target-utils 包中启用 rbd 支持?