问题标签 [fsck]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
mysql - Debian 找不到文件,但 ls 显示文件
我的 MySQL 服务器没有启动,因为缺少文件。
有趣的是该文件是可见的,ls -al
但其他命令无法找到该文件。
这就是错误。几个文件有效。
如果我shutdown -rF now
用来检查文件系统,我不会收到任何错误。
有什么问题?:(
java - 如何查看损坏的文件Hadoop?
我的 Hadoop 机器上有一些损坏的文件,我想将它们传输到另一台计算机上,看看里面有什么。
我试着做hadoop fsck -copyToLocal /dir1/ /dir2/
。它什么也没给。当我做hadoop fs -copyToLocal /dir1/ /dir2/
或hadoop dfs -copyToLocal /dir1/ /dir2/
. 它写道:
我也试着做hadoop fsck -move
。它会删除损坏的文件,但我找不到它们。
git - 验证 git 存储库(Stash)还原
我们有灾难恢复计划,这意味着我们备份我们的 git 安装(在我们的例子中是 Atlassian Stash)并在测试服务器上恢复它以验证备份是一个好的备份。如果恢复过程失败,那么我们就会遇到问题,但我们想知道在恢复成功时是否能走得更远,并验证恢复的存储库。
在这里使用git fsck
是个好主意吗?作为开发人员在本地运行它会抛出一些悬空或无法访问的对象,我相信这是正常的事情。但是在新鲜的git clone
情况下应该没有任何问题吧?因此,如果 fsck 有错误,那么我们的日子不好过?
作为第二种选择,我们还可以将 CI 服务器指向已恢复的存储库并让它构建和运行测试。由于我们的主分支应该始终是健康的,因此任何构建失败都表明存在问题。
关于验证存储库是否良好且健康的任何其他想法?
高格
git - git commit 损坏的时区
如何解决这个问题?在git rebase
主分支中删除\更新提交信息,或者在项目.git
目录中做一些魔术,或者以其他方式?
hadoop - HDFS 上具有损坏区域文件的 HBase 集群
我们有这个 HBase 集群:30+ 个节点,48 个表,40+TB 在 HDFS 级别,复制因子 2。由于两个节点上的磁盘故障,我们在 HDFS 上有一个损坏的文件。
当前 HDFS 状态
输出摘录hdfs fsck /
,显示损坏的 HBase 区域文件:
丢失的数据不可恢复(磁盘已损坏)。
当前 HBase 状态
另一方面,根据 HBase 的说法,一切都很好,花花公子
hbase hbck
说:
此外,似乎我们仍然可以从损坏区域文件的未丢失块中查询数据(据我认为我能够根据该区域的开始和结束行键进行检查)。
下一步
- 由于文件块数据不可恢复,似乎唯一的选择是删除完整的损坏文件(使用
hadoop fs -rm
或hadoop fsck -delete /
)。这将在 HDFS 级别“修复”损坏。 - 但是,我担心删除 HDFS 文件会在 HBase 级别引入损坏,因为完整的区域文件将消失
- 我考虑
hadoop fsck -move /
将损坏的文件移动到/lost+found
并查看 HBase 将如何处理,但移动到/lost+found
并不像看起来那样可逆,所以我也对此犹豫不决
具体问题:
我应该删除文件吗?(丢失与该区域对应的数据对我们来说是合理的。)当您手动删除 HDFS 中的 HBase 区域文件时会发生什么坏事?它只是删除数据还是会在 HBase 中引入丑陋的元数据损坏,也必须加以处理?
或者我们真的可以让情况保持原样,目前似乎有效(HBase 没有抱怨/看到腐败)?
linux - 如何检查 ubifs 文件系统?
ubifs 没有 fsck 程序,那么在使用 ubifs 时如何检查文件系统的完整性呢?
我的目标系统是 ARM,Linux 3.2.58。
hadoop - 从属虚拟机在 CloudLab 中关闭
我的三个从属虚拟机中有两个已关闭,我无法对它们进行 ssh。我们已经执行了硬重启,但它们仍然关闭。任何想法如何将它们带回来或如何调试以找到原因。这是什么jps
:
这里还有另一个细节:
当我运行以下命令时:
结果是:
这是此pastebin中的更多详细信息。
hadoop - 目标副本为 10,但找到 3 个副本
我该如何解决这个问题?
hadoop fsck /
当我在我的主节点中运行时,我得到了这个。我假设我应该更改.xml
conf 中的文件或类似的文件,我只是不知道要更改哪个文件。
请注意,dfs.replication
inhdfs-site.xml
已经设置为 3。我dfs.replication.max
的hdfs-site.xml
文件中没有。
hadoop - HDFS fsck 命令输出
我在输出中得到了这个,所以我只想知道什么是 BP,Blk?你能解释一下这个输出中每件事的含义吗?我知道
我猜 192.0.0.9:1000 这是第一次复制数据的IP
hadoop - 显示不同信息的 HDFS 磁盘使用情况
我通过 hadoop fsck / Total size: 41514639144544 B (Total open files size: 581 B) Total dirs: 40524 Total files: 124348 Total symlinks: 0 (Files current being writing: 7) Total blocks (validated): 340802 (平均块大小 121814540 B)(打开的文件块总数(未验证):7)最小复制块:340802 (100.0 %)
我正在使用 256MB 块大小。所以 340802 个块 * 256 MB = 83.2TB * 3(replicas) =249.6 TB 但在 cloudera manager 中它显示使用了 110 TB 磁盘。这怎么可能?