问题标签 [zfs]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Gradle 使用 ZFS 表现不同
我遇到了一个有趣的 gradle 问题。跑步时
在具有 sparc 架构和已安装的 ZFS (zpool) 文件系统的 Solaris 10 上,我收到 Mockito 错误,它无法在我的 java 项目中验证模拟。在我的 Windows 机器上运行测试时不会发生这种情况。
在尝试使用 UFS 格式的分区后,问题就消失了,所有的测试都通过了。
我的问题是,Gradle 不支持 ZFS,还是我需要在 Gradle 中更改一些配置以确保测试能够顺利运行?这对我们来说非常重要,因为我们的持续集成服务器 (Jenkins) 使用 ZFS 作为其工作区。
solaris - Solaris 内核统计信息 unix:0:vopstats_zfs:* system (zpools) 是否宽?
Solaris 内核统计unix:0:vopstats_zfs:*
系统 (zpools) 是否广泛?我的意思是系统上存在的所有 zpool 的这些统计信息吗?我有时会看到磁盘操作与 ZFS 操作之间存在巨大差异,但无法判断是什么造成了这种差异。例如,ZFS 写操作显示每秒 2-3k 操作,但磁盘显示超过 17k 操作。在某些时期,这些操作大约是匹配的(如果我也考虑 L2ARC),但有时它们完全不同。我正在对全局区域进行监控......是否有可能,区域内隐藏了一些东西?这是一个内核,所以我希望全局区域和区域中的数字相同。系统只有 ZFS,没有 UFS。当时没有要求擦洗。
filesystems - 比较 NTFS HFS+ EXT4 ZFS
事情是这样的,我需要调查这 4 个用于大学工作的文件系统,但我在网上找不到正确的信息
重点是比较这 4 个及其功能,但我找不到基准或详细数据
如果有人能告诉我你所知道的关于他们的优点和缺点的所有信息,或者任何有我需要的信息的网站,那就太棒了
非常感谢
linux - 磁盘替换后无法(强制)导入 zpool(I/O 错误)
更换损坏的磁盘后,我无法导入我的 raidz1-0 阵列。在磁盘交换之前我无法“离线”损坏的磁盘,现在我无法再导入 zpool 以“替换”损坏的磁盘。
我没有备份/导出,我很担心。由于只有一个磁盘出现故障,我希望(d)我能够恢复池,但我想不出其他可以尝试的方法。非常欢迎任何建议/提示/建议!
请参阅下面我遵循的步骤。
系统:Linux nas 3.2.0-4-amd64 #1 SMP Debian 3.2.57-3 x86_64 GNU/Linux
root@nas:/home/lucas# zpool status -v
没有可用的游泳池
root@nas:/home/lucas# zpool 导入
root@nas:/home/lucas# zpool 导入 naspool
无法导入“naspool”:池可能正在从其他系统使用,无论如何使用“-f”导入
root@nas:/home/lucas# zpool 导入 naspool -f
无法导入“naspool”:I/O 错误 销毁并从备份源重新创建池。
root@nas:/home/lucas# zdb
无法打开“/etc/zfs/zpool.cache”:没有这样的文件或目录
root@nas:/home/lucas# ls -l /dev/disk/by-id
root@nas:/home/lucas# zpool 替换 naspool scsi-SATA_ST3000DM001-1CH_W1F39CBE
无法打开“naspool”:没有这样的池
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/
池:naspool id:3030059305965279629 状态:DEGRADED 状态:一个或多个设备包含损坏的数据。行动:尽管设备丢失或损坏,仍可以导入池。如果导入,池的容错性可能会受到影响。见:http: //zfsonlinux.org/msg/ZFS-8000-4J 配置:
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ naspool
无法导入“naspool”:池可能正在从其他系统使用,无论如何使用“-f”导入
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ naspool -f
无法导入“naspool”:I/O 错误 销毁并从备份源重新创建池。
root@nas:/home/lucas# zpool import -f -F naspool
无法导入“naspool”:I/O 错误 销毁并从备份源重新创建池。
root@nas:/home/lucas# zpool import -f -F 3030059305965279629
无法导入“naspool”:I/O 错误 销毁并从备份源重新创建池。
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ -f -F 3030059305965279629
无法导入“naspool”:I/O 错误 销毁并从备份源重新创建池。
我还尝试使用 zfsGuru live USB 记忆棒启动以导入池,但这不起作用:
filesystems - ZFS 块大小(记录大小)和主缓存问题
在这个网站上:http: //www.patpro.net/blog/index.php/2014/03/19/2628-zfs-primarycache-all-versus-metadata/
该人表明,通过切换primarycache
到全部或元数据,他在使用防病毒软件时获得了截然不同的读取性能。
但是,他也表明读取带宽也有很大差异。
我创建了 2 个全新的数据集,它们都具有 primarycache=none 和 compression=lz4,并且我在每个数据集中复制了一个 4.8GB 的文件(2.05x 压缩率)。然后我在第一个上设置 primarycache=all,在第二个上设置 primarycache=metadata。我使用在另一个终端中运行的 zpool iostat 将第一个文件放入 /dev/null 中。最后,我以同样的方式处理第二个文件。
对于primarycache=all:2.44GB的数据集,读取带宽列的总和(几乎)正好是磁盘上文件的物理大小(du输出)。对于另一个数据集,primarycache=metadata,读取带宽列的总和是......等待它...... 77.95GB。
然后他说一位匿名用户是这样解释的:
clamscan 读取一个文件,获取 4k(页面大小?)的数据并处理它,然后读取下一个 4k,等等。
然而,ZFS 不能只读取 4k。默认情况下它读取 128k(记录大小)。由于没有缓存(您已将其关闭),其余数据将被丢弃。
128k / 4k = 32
32 x 2.44GB = 78.08GB
我不太明白匿名用户的解释。我仍然对为什么读取带宽有如此大的差异感到困惑。
那么为什么这个 ZFS 实验显示,当primarycache
全部时,读取带宽是 2.44 GB,而当它只是元数据时,它是 77.95GB?调优 ZFS 有什么影响?如果这个人可能减少他的记录大小,他会得到不同的结果吗?
声称 ZFS 的记录大小是可变的呢?
linux - 为什么 qx(ssh ...) 没有输出?
如果我在 Bash 做
然后我在 中看到输出$a
,但是如果我在 Perl中看到
然后我没有得到输出。我有 ssh 密钥,所以不需要登录。
现在我只想得到简单的输出,但后来我想用 bash 从远程主机到本地主机。将用于 ZFS 复制。
问题
为什么我在 Perl 中看不到输出?
ubuntu-14.04 - zfs:如何创建两个现有 vdev 的池,然后挂载它
我有两个池(zpool 状态的缩短输出):
我想将它们组合成一个池,将其称为“Aquilonde”,然后将其挂载到文件系统中的服务器上,作为 /plex-server。我是 zfs 的新手。谷歌搜索并没有太大的满足感。我试过这个和它的变体:
linux - linux 上的 zfs 是否足够可靠,可以在网络附加存储上与 gentoo 一起安装?
我很难决定哪个文件系统是最好的以及 Raid 或不 Raid 选择。我有4个不同的硬盘。1. 120GB 固态硬盘 2. 160GB 3. 500GB 4. 1TB
而且我注意到linux上的zfs官方不支持trim,而是支持第三方补丁,因此,它没有经过全面测试......
结果,我不打算让我的ssd使用zfs,我将使用ext4代替......
那么,Linux 上的 zfs 是否足够可靠,可以在网络附加存储上与 gentoo 一起安装?或者你们对我有另一个好的解决方案?PS如果zfs足够可靠,RAIDZ是个不错的选择吗?
ubuntu - 如何创建 zfs 容器 docker 数据,我还为我的开发人员环境创建了多个容器
我想创建一个 zfs docker 我需要一点帮助,我在 ubuntu 上工作,我在 docker 中为我的环境创建了 3 个容器。需要使用这个具有数据冗余的文件系统。
benchmarking - 如何指定要使用 iozone 测试的路径?
我有一个具有 ufs 文件系统的 freebsd 安装。在 freebsd 中,我在 raidz1 中创建了一个 zpool。现在我想在 zfs 上执行 iozone 测试,但我无法理解如何在 zpool 而不是基本文件系统上指定 iozone 测试。