问题标签 [zfs]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
linux - 是否可以使 raidz zfs 池中的磁盘脱机?
当我尝试使 zfs raidz 池中的磁盘脱机时(raidz 池未镜像),zfs 说该磁盘无法脱机,因为它没有有效的镜像。
raidz 的属性之一不是它有一个冗余磁盘(甚至 raidz2 中的 2 个磁盘)......?
filesystems - 有人对 ZFS 有经验吗?
我正在考虑采用ZFS,我很高兴知道您在生产和测试环境中的经验。
solaris - ZFS vdev 命名?
我不知道在 Solaris 中创建 zfs 池时命名使用的 vdev(虚拟设备)的基本原理是什么。假设我有一个磁盘c4d0,c4d0p0和c4d0s0是什么意思?而且,我怎么知道 ZFS 命令使用什么。我非常困惑,因为我不断收到“指定的无效 vdev”。任何指针?
filesystems - ZFS 能否在 OpenSolaris 中镜像整个硬盘驱动器?
我正在升级一个 OpenSolaris 开发工作站,最近购买了两个 500GB SATA 硬盘驱动器,希望使用主板的功能来镜像驱动器。当配置为通过 BIOS 进行镜像时,OpenSolaris 无法识别驱动器,但在其他情况下它可以很好地看到它们。ZFS 可以镜像整个驱动器吗?如果主驱动器出现故障,镜像是否可以引导?
java - 使用 java,如何获取 solaris zfs 文件系统上的可用空间量?
使用 java,如何获取 solaris zfs 文件系统上的可用空间量?
我有一个 SunFire x4140,内置硬盘安装为 /。它还有一个连接的 JBOD,具有 7.6TB 的 HDD 空间,配置为 ZFS 文件系统并安装为 /app。
我使用 java.io.File.getUsableSpace 或 java.io.File.getFreeSpace 来获取文件系统上的可用空间量。在 /(板载)HDD FS 上它可以正常工作。
在 /app(zfs 分区)上,File.getFreeSpace、File.getUsableSpace 和 File.getTotalSpace 都返回 0(零)。有谁知道为什么?java.io.File.getUsableSpace 是否在 ZFS 上工作,如果可以,如何?
下面显示了相关机器上的 zfs 文件系统:
/usr/sbin/zfs 列表
macos - Mac OS X 上 ZFS 的状态如何?
在 10.5 中,Apple 发布了一个只读内核扩展/文件系统以允许挂载 ZFS 池。后来的一个开源项目托管在http://zfs.macosforge.org并被宣布成为 10.6 的一部分,但在公开发布 ZFS 前不久,ZFS 被猛拉,最近,Apple 托管的 MacOSForge 网站关闭了ZFS 项目。
那么,ZFS 在 Mac OS X 上的状态如何?值得使用吗?为什么会有人想要使用 ZFS?
unix - 当 ZFS 无法交付未损坏的数据时,程序会看到什么?
假设我的程序尝试读取 ZFS 文件系统上文件中的字节。ZFS 可以找到必要块的副本,但无法找到具有有效校验和的任何副本(它们都已损坏,或者存在的唯一磁盘具有损坏的副本)。就读取的返回值和它尝试读取的字节而言,我的程序看到了什么?有没有办法影响行为(在 Solaris 或任何其他实现 ZFS 的操作系统下),即使用可能损坏的数据强制失败或强制成功?
solaris - 在 Solaris 上,如何挂载第二个 zfs 系统盘进行诊断?
我的计算机中有两个硬盘,第一个安装了 Solaris 10u8,第二个安装了 Opensolaris 2010.3 (dev onnv_134)。两个系统都使用 ZFS,并且是使用名为“rpool”的 zpool 独立创建的。
在第一个磁盘上运行 Solaris 10u8 时,如何将第二个 ZFS 硬盘(位于 /dev/dsk/c1d1s0)挂载到任意挂载点(如 /a)以进行诊断?
solaris - 如何使用 dd 读取存储池 (zpool) 中的块?
我想使用 dd 命令读取 zpool 存储池中的一个块。由于 zpool 不像其他卷管理器(如 vxvm)那样创建设备文件。我不知道使用哪个块设备来阅读。有没有办法在 zpool 中逐块读取数据?
java - Solaris: virtual slices/disks for use with ZFS
This is a little related to my previous question Solaris: Mounting a file system on an application's handlers except this question is for a different purpose and is simpler as there is no open/close/lock it is just a fixed length block of bytes with read/write operations.
Is there anyway I can create a virtual slice, kinda like a RAM disk or a SVM slice.. but I want the reads and writes to go through my app.
I am planning to use ZFS to take multiple of these virtual slices/disks and make them into one larger one for distributed backup storage with snapshots. I really like the compression and stacking that ZFS offers. If necessary I can guarantee that there is only one instance of ZFS accessing these virtual disks at a time (to prevent cache conflicts and such). If the one instance goes down, we can make sure it won't start back up and then we can start another instance of that ZFS.
I am planning to have those disks in chunks of about 4GB or so,, then I can move around each chunk and decide where to store them (multiple times mirrored of course) and then have ZFS access the chunks and put them together in to larger chunks for actual use. Also ZFS would permit adding of these small chunks if necessary to increase the size of the larger chunk.
I am aware there would be extra latency / network traffic if we used my own app in Java, but this is just for backup storage. The production storage is entirely different configuration that does not relate.
Edit: We have a system that uses all the space available and basically when there is not enough space it will remove old snapshots and increase the gaps between old snapshots. The purpose of my proposal is to allow the unused space from production equipment to be put to use at no extra cost. At different times different units of our production equipment will have free space. Also the system I am describing should eliminate any single point of failure when attempting to access data. I am hoping to not have to buy two large units and keep them synchronized. I would prefer just to have two access points and then we can mix large/small units in any way we want and move data around seamlessly.
This is a cross post because this is more software related than sysadmin related The original question is here: https://serverfault.com/questions/212072. it may be a good idea for the original to be closed