问题标签 [fsck]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
176 浏览

filesystems - UFS - 0 字节文件如何破坏文件系统标头?

对于那些到达这里的人;不幸的是,我无法恢复数据,经过多次尝试和重现问题,继续尝试成本太高,所以我们只是使用过去的备份来重新创建所需的信息

人为错误破坏了 150G UFS 文件系统 (Solaris)。

尝试备份文件系统 (c0t0d0s3) 时,未正确使用 ufsdump(1M)。我将解释导致这种情况的背景......

管理员使用:

这是一个不好的用法,所以它创建了一个名为 output_1 的文件,其大小为 0 字节:

然后,使用的语法是:

它将 0 字节文件output_1写入/dev/rdsk/c0t0d0s3 - 这是分区片

现在,有趣的是,由于是一个 0 字节的文件,我们认为这不会对文件系统造成损害,但它确实如此。在挂载点尝试 ls 时,分区声称存在 I/O 错误,当再次卸载和挂载时,文件系统没有显示任何内容,但磁盘空间仍显示为使用状态,就像以前一样。

我认为,在某些时候,文件系统的“标头”受到了影响,对吧?还是切片信息?

一个小的 fsck 尝试带来了这个:

磁盘块数/I=11

  • 这似乎是该命令破坏了有关其自身内容的文件系统信息,对吧?当我们尝试fsck -y -F ufs /dev/dsk..各种文件已恢复,但没有恢复我们之后的 dbf 文件(GB 大小)

现在可以做什么?我应该尝试来自 newfs -N 的每个超级块信息吗?

编辑:关于显示超级块信息的分区 newfs 输出的新信息

0 投票
1 回答
290 浏览

linux - 坏块与分区或永久相关?

我对分区进行了检查:

它发现了一些坏块。据我了解,它标记了坏块,因此没有文件会使用它们。

我的问题是:“标记”是持久的还是与分区相关联?更具体地说,如果我用类似的东西重新格式化分区

坏块是否仍被标记?

0 投票
1 回答
579 浏览

hadoop - 复制块的物理位置

我的集群中有 2 个数据节点 + 1 个名称节点。我可以看到我的文件 emails.json 在两个数据节点上都复制了。我可以根据 fsck 输出看到这里的位置。

  • 192.168.99.1:50010 192.168.99.100:50010

我可以在其中一台服务器中找到文件的物理位置

服务器 #1

但似乎无法在第二个数据节点上找到副本。

服务器 #2

FSCK 命令输出

0 投票
0 回答
39 浏览

git - 从日志文件中重新生成损坏的 Git 存储库?

我在 Windows 上随机出现蓝屏,当我重新启动时,我的 git repo 已损坏。这是一个仅限本地的存储库,我的备份已有数周之久。我已经尝试了许多不同的方法(如下所述)以使其正常工作,但无济于事。重新克隆本地存储库会产生与原始存储库相同的损坏。我不能向 repo 提交任何新内容。

但是,git log似乎git show仍然可以完美运行。有什么方法可以从这些命令的输出中重新创建一个新的 git repo?


我试图让它再次工作:

git 状态不起作用:

我还尝试了以下方法,但没有帮助:

0 投票
1 回答
9748 浏览

hadoop - Hadoop HDFS - 缺少副本和未复制块之间的区别

我知道复制不足的块和复制错误的块都是由于相对于复制因子集的数据节点数量较少而发生的。

但是它们之间有什么区别呢?

在可用数据节点为 1 的情况下将复制因子重新设置为 1,复制不足的块和缺少副本错误都被清除。通过执行命令hdfs fsck /确保这一点 FSCK 报告

0 投票
1 回答
234 浏览

hadoop - CDH HDFS node decommission never ends

We have a 12 servers hadoop cluster(CDH), Recent, we want to decommission three of them, but this process already been running there more than 2 days. But it never ends, Especially, in the past 24 hours, I saw there are only 94G data available on the three data-node, but the size seems not changing in the past 24 hours. even through the under replicated blocks number already been zero. The replication factor is 3 for all the data in hdfs.

Below is the result for hadoop fsck command:

Total size: 5789534135468 B (Total open files size: 94222879072 B) Total dirs: 42458 Total files: 5494378 Total symlinks: 0 (Files currently being written: 133) Total blocks (validated): 5506578 (avg. block size 1051385 B) (Total open file blocks (not validated): 822) Minimally replicated blocks: 5506578 (100.0 %) Over-replicated blocks: 0 (0.0 %) Under-replicated blocks: 0 (0.0 %) Mis-replicated blocks: 0 (0.0 %) Default replication factor: 3 Average block replication: 2.999584 Corrupt blocks: 0 Missing replicas: 0 (0.0 %) Number of data-nodes: 13 Number of racks: 1 FSCK ended at Mon Oct 17 16:36:09 KST 2016 in 781094 milliseconds

0 投票
3 回答
2821 浏览

hadoop - hdfs fsck 权限被拒绝

我正在运行这个命令行来解决 HDFS 文件损坏的问题:

我得到这个警告:

任何帮助请!

0 投票
1 回答
165 浏览

sh - FreeBSD 机器上的自动 fsck(使用 init 1/init 5)?

我希望在我的 FreeBSD 服务器上实现自动 fsck。我有一个想法如何做到这一点,但因为它正在运行非常强大的命令,所以在我将它设置为运行之前,我想多看看它。

步骤 1. Cron 作业。我的 cron 看起来像这样:0 17 * * 0 myfsckscript.sh > /usr/local/var/log/fscklog/$(date).log,每周日下午 5 点运行。它将从 root 的 crontab 运行,因为我正在做的事情需要 root 权限。

脚本是这样的:

我的主要担忧如下:

  • 运行此程序是否会构成我应该知道的任何重大危险?
  • 我的脚本中有错误吗?
  • 有什么我应该补充的吗?
  • 我真的做对了吗?

很抱歉,这主要是一个确认问题,但是以我对 sh 的技能水平,如果没有更有经验的人先看一下,我不愿意将其设置为运行。

0 投票
2 回答
573 浏览

sqlite - SD-card becomes read only

I am running my application on colibri-vf50 toradex(running over angstrom distribution) board having sqlite database resides on sd-card. My sd-card becomes read-only whenever I remove power-supply just after board boot up(same time my app start making connection with db). Due to this I getting error in dmesg like "FAT-fs (mmcblk0p1): error, clusters badly computed".

After this sqlite can not write in db. I also tried to repair using fsck using below command but found no success.

I also tried with various journel_mode of sqlite but could not prevent. So How I can prevent my sd-card to become read-only and also how to repair on board?

Thanks in advance

0 投票
1 回答
346 浏览

hadoop - 如何从 Hadoop 中的一个特定机架获取块报告?

我想知道是否可以仅从 hadoop 中的一个机架获取块报告?

我知道我可以使用以下命令获得完整的块报告:

但是,当您的集群很大时,运行该命令需要很长时间。我只想查看位于特定机架中的块。有没有办法只从一个机架上获取报告?(即指定机架而不是路径)

提前致谢