问题标签 [fsck]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
354 浏览

mysql - Debian 找不到文件,但 ls 显示文件

我的 MySQL 服务器没有启动,因为缺少文件。

有趣的是该文件是可见的,ls -al但其他命令无法找到该文件。

ls -al 显示文件

这就是错误。几个文件有效。

stat 找不到文件或目录

如果我shutdown -rF now用来检查文件系统,我不会收到任何错误。

有什么问题?:(

关于磁盘的一些信息

0 投票
0 回答
637 浏览

java - 如何查看损坏的文件Hadoop?

我的 Hadoop 机器上有一些损坏的文件,我想将它们传输到另一台计算机上,看看里面有什么。

我试着做hadoop fsck -copyToLocal /dir1/ /dir2/。它什么也没给。当我做hadoop fs -copyToLocal /dir1/ /dir2/hadoop dfs -copyToLocal /dir1/ /dir2/. 它写道:

我也试着做hadoop fsck -move。它会删除损坏的文件,但我找不到它们。

0 投票
1 回答
203 浏览

git - 验证 git 存储库(Stash)还原

我们有灾难恢复计划,这意味着我们备份我们的 git 安装(在我们的例子中是 Atlassian Stash)并在测试服务器上恢复它以验证备份是一个好的备份。如果恢复过程失败,那么我们就会遇到问题,但我们想知道在恢复成功时是否能走得更远,并验证恢复的存储库。

在这里使用git fsck是个好主意吗?作为开发人员在本地运行它会抛出一些悬空或无法访问的对象,我相信这是正常的事情。但是在新鲜的git clone情况下应该没有任何问题吧?因此,如果 fsck 有错误,那么我们的日子不好过?

作为第二种选择,我们还可以将 CI 服务器指向已恢复的存储库并让它构建和运行测试。由于我们的主分支应该始终是健康的,因此任何构建失败都表明存在问题。

关于验证存储库是否良好且健康的任何其他想法?

高格

0 投票
2 回答
794 浏览

git - git commit 损坏的时区

如何解决这个问题?在git rebase主分支中删除\更新提交信息,或者在项目.git目录中做一些魔术,或者以其他方式?

0 投票
3 回答
12546 浏览

hadoop - HDFS 上具有损坏区域文件的 HBase 集群

我们有这个 HBase 集群:30+ 个节点,48 个表,40+TB 在 HDFS 级别,复制因子 2。由于两个节点上的磁盘故障,我们在 HDFS 上有一个损坏的文件。

当前 HDFS 状态

输出摘录hdfs fsck /,显示损坏的 HBase 区域文件:

丢失的数据不可恢复(磁盘已损坏)。

当前 HBase 状态

另一方面,根据 HBase 的说法,一切都很好,花花公子

hbase hbck说:

此外,似乎我们仍然可以从损坏区域文件的未丢失块中查询数据(据我认为我能够根据该区域的开始和结束行键进行检查)。

下一步

  • 由于文件块数据不可恢复,似乎唯一的选择是删除完整的损坏文件(使用hadoop fs -rmhadoop fsck -delete /)。这将在 HDFS 级别“修复”损坏。
  • 但是,我担心删除 HDFS 文件会在 HBase 级别引入损坏,因为完整的区域文件将消失
  • 我考虑hadoop fsck -move /将损坏的文件移动到/lost+found并查看 HBase 将如何处理,但移动到/lost+found并不像看起来那样可逆,所以我也对此犹豫不决

具体问题:

我应该删除文件吗?(丢失与该区域对应的数据对我们来说是合理的。)当您手动删除 HDFS 中的 HBase 区域文件时会发生什么坏事?它只是删除数据还是会在 HBase 中引入丑陋的元数据损坏,也必须加以处理?

或者我们真的可以让情况保持原样,目前似乎有效(HBase 没有抱怨/看到腐败)?

0 投票
2 回答
9306 浏览

linux - 如何检查 ubifs 文件系统?

ubifs 没有 fsck 程序,那么在使用 ubifs 时如何检查文件系统的完整性呢?

我的目标系统是 ARM,Linux 3.2.58。

0 投票
1 回答
48 浏览

hadoop - 从属虚拟机在 CloudLab 中关闭

我的三个从属虚拟机中有两个已关闭,我无法对它们进行 ssh。我们已经执行了硬重启,但它们仍然关闭。任何想法如何将它们带回来或如何调试以找到原因。这是什么jps

这里还有另一个细节:

当我运行以下命令时:

结果是:

这是此pastebin中的更多详细信息。

0 投票
3 回答
1879 浏览

hadoop - 目标副本为 10,但找到 3 个副本

我该如何解决这个问题?

hadoop fsck /当我在我的主节点中运行时,我得到了这个。我假设我应该更改.xmlconf 中的文件或类似的文件,我只是不知道要更改哪个文件。

请注意,dfs.replicationinhdfs-site.xml已经设置为 3。我dfs.replication.maxhdfs-site.xml文件中没有。

0 投票
1 回答
2423 浏览

hadoop - HDFS fsck 命令输出

我在输出中得到了这个,所以我只想知道什么是 BP,Blk?你能解释一下这个输出中每件事的含义吗?我知道

我猜 192.0.0.9:1000 这是第一次复制数据的IP

0 投票
1 回答
217 浏览

hadoop - 显示不同信息的 HDFS 磁盘使用情况

我通过 hadoop fsck / Total size: 41514639144544 B (Total open files size: 581 B) Total dirs: 40524 Total files: 124348 Total symlinks: 0 (Files current being writing: 7) Total blocks (validated): 340802 (平均块大小 121814540 B)(打开的文件块总数(未验证):7)最小复制块:340802 (100.0 %)

我正在使用 256MB 块大小。所以 340802 个块 * 256 MB = 83.2TB * 3(replicas) =​​249.6 TB 但在 cloudera manager 中它显示使用了 110 TB 磁盘。这怎么可能?