问题标签 [s3fs]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
amazon-ec2 - 如何检查目录是否在 EC2 中挂载了 s3fs?
我正在尝试创建一个每次我的 ec2 实例启动时运行的脚本。它目前有一个用于挂载 s3 存储桶的目录:/s3mnt
在脚本中,我想检查该目录上是否有挂载,并执行一组操作。如果没有安装,我想创建一个(我知道这个命令),然后执行与上面相同的一组操作
python - 使用 s3fs 更新日志文件
如果我使用 s3fs 挂载一个“文件夹”,我可以访问我的日志文件。
每次我通过 Python 脚本添加新行时,是否会上传整个文件?
unix - S3FS:允许特定用户或组的权限
我想使用 S3FS 使用 s3 存储桶挂载文件系统。
我希望来自特定组的不同用户可以访问已安装的文件夹并且可以读/写访问权限。
当我使用“allow_other”选项时,所有用户都可以完全访问已安装的文件夹。例如:
但我需要,只有特定组的用户才能访问已安装的文件夹(不是所有用户)。
可能吗?
amazon-web-services - SFTP Chroot 用户到挂载的 S3 存储桶
我正在尝试使用 Amazon EC2 服务器作为我的 SFTP 服务器,我可以在其中创建经过身份验证的用户以 sftp 进入我的服务器。对于使用 s3fs 的每个用户,我已将 s3 存储桶安装到位于 /mnt/buckets/{username} 位置的服务器上。读取和写入 /mnt/buckets/{username} 目录可以按预期使用 s3。
我的 sshd_config 有以下内容。
当 SFTP-ing 我得到以下响应
挂载的存储桶具有这些权限。
当我将 Chroot 目录更改为 /mnt/buckets 时,我能够登录到 sftp 服务器以及读取和写入 s3 挂载的存储桶
我可以将用户 chroot 到已安装的 s3 存储桶中吗?
(另外,如果有任何工具已经具有此功能,我也会有兴趣了解它们)
amazon-s3 - 安装 S3 存储桶,横向扩展还是纵向扩展?
也许我应该将此问题移至 serverfault,但也许不是 =)
我有一个基础设施,我有多个需要共享相同 (HA) 存储的机器(例如 FTP 服务器、get/put 和 Samba/NFS 服务器)。所以我想使用 s3fs 和 fuse。我完成了所有设置,并且工作正常,我有两台服务器,每台服务器都通过 FTP/SMB/NFS 公开相同的存储桶。
现在,当我有越来越多的服务器需要访问同一个存储桶时,最好的选择是什么?只是让这些其他机器安装同一个存储桶(横向扩展)或将工作的两台机器放在 S3 前面并从那里使用 NFS/SMB 共享(从而在前端机器上扩展)?
知道什么是最好的方法吗?通常我倾向于向外扩展,但我对 s3fs 和 Fuse(或 S3)不太熟悉。
所以:S3 <-> AppA、B 和 C | 或 | S3 <-> NAS_WITH NFS/SMB/FTP <-> AppA、B 和 C
欢迎任何意见!格茨,罗纳德
amazon-web-services - 如何将数据保存在 aws s3 和 glacier 上
我想保留一个 AWS s3 存储桶的备份。如果我使用 Glacier,它会将存储桶中的文件存档并移动到 Glacier,但它也会从 s3 中删除文件。我不想从 s3 中删除文件。一种选择是尝试使用 EBS 卷。您可以使用 s3fs 挂载 AWS s3 存储桶并将其复制到 EBS 卷。另一种方法是将现有存储桶 rsync 到将充当克隆的新存储桶。还有其他方法吗?
amazon-web-services - 使用 AWS IAM 角色而不是使用 passwd 文件挂载 AWS S3 存储桶
我正在使用s3fs-fuse将 AWS S3 存储桶安装为文件系统。它需要一个包含 AWS 访问密钥 ID 和 AWS 秘密访问密钥的文件。如何避免使用此文件进行访问?而是使用 AWS IAM 角色?
amazon-s3 - Amazon S3 (S3FS) Owncloud 权限
我安装了桶,一切正常。我的Fstab是这样的
但是当我点击 Owncloud 主页时,它告诉我必须将 chmod 0770 设置为目录。但是 S3fs 挂载根本无法更改。
删除 allow_other 也不起作用,因为只有 root 可以访问挂载。
file - 将数据中心单个分区上的数十亿个文件迁移到 s3 的最佳方法?
我们有一个带有 10G 直接连接到 AWS 的电路的数据中心。在数据中心,我们有一个 IBM XIV 存储基础架构,其 GPFS 文件系统在单个顶级目录中包含 15 亿个图像(每个大约 5 万个)。我们可以整天争论这有多愚蠢,但我宁愿为我的任务寻求建议,即将所有这些文件移动到 s3 存储桶中。
我不能使用任何物理传输解决方案,因为数据中心被物理锁定,并且获得本地物理许可需要 6 个月的时间。
进行此文件迁移的最佳方法是什么?
到目前为止,我最好的想法是在 AWS 中构建一个 EC2 linux 服务器,使用 s3fs-fuse ( https://github.com/s3fs-fuse/s3fs-fuse/wiki/Fuse-Over-Amazon )安装 s3 目标存储桶作为 EC2 服务器上的文件系统,然后在持有 GPFS 挂载的数据中心服务器和 EC2 服务器之间运行一些 netcat + tar 命令。我在另一篇文章中找到了这个建议:目标框:nc -l -p 2342 | tar -C /target/dir -xzf - 源框:tar -cz /source/dir | 数控 Target_Box 2342
在开始一项可能需要一个月的任务之前,我想看看这里是否有人有更好的方法来做到这一点?
fuse - 带有 bacula 备份的 s3fs - 传输端未连接
我正在使用 s3fs 1.7.3 和 fuse 2.9.5 来存储备份系统 bacula 的备份磁带。
我发现,当 bacula 完成备份一台服务器时,我会在安装了 bacula 虚拟备份磁带的目录上出现 S3FS 错误,然后它才能继续备份下一台服务器:
我使用 /etc/fstab 中的这一行并使用“mount -a”命令安装了 S3FS 共享:
我可以使用“umount -l /backup/tapes”命令卸载“/backup/tapes”目录,然后使用“mount -a”命令通过 fstab 文件重新安装它。当我进入 bacula CLI 并再次挂载目录时,我可以移动到下一个主机并备份该目录。但是,当它到达主机之后,“传输连接”错误将再次发生。
我真的不想为我需要备份的所有 30 台主机继续这样做!我怎样才能让 s3fs 保持连接,以便在没有干预的情况下进行夜间备份?
谢谢