问题标签 [jets3t]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - JetS3t 与 AWS Java 开发工具包
我需要弄清楚 AWS SDK Java API 和 Jets3t API 之间的关系吗?在吞吐量和性能方面哪个更好?
我假设连接不可靠,所以我可能需要分块上传/下载数据。
JetS3t 中有用于分段上传的 API。但我也在寻找多部分下载。
amazon-s3 - 如何使用 jets3t API 访问和读取共享桶的桶信息?
这是我的错误的解释。我在 Eucalyptus(开源)中注册了两个用户的 A、B。我在用户 A 的帐户中使用 Jets3t API 创建了一个存储桶 B1,并授予用户 B 读取权限(使用“CanonicalGrantee”接口)。在使用 A 的凭据列出访问控制列表时,我得到了 A 的 FULL_CONTROL 和 B 的 READ。但是当我尝试使用 B 的凭据访问存储桶 B1 信息时,我得到了这个错误
线程“主”org.jets3t.service.S3ServiceException 中的异常:无法使用无效存储桶执行操作 listObjects:在 test.ObjectPermission.main( ObjectPermission.java:40)
有问题的代码是 S3Bucket publicBucket =s3Service.getBucket("B1");
这里 B1 是 Bucket 属于 User A。在上面的代码中 s3service 返回一个 null Values 。我知道 s3service 只检索在 B' Credential 下创建的信息所属的信息。
我不知道如何解决这个问题并使用 Jets3t API 访问共享存储桶
java - Jets3t zipfile 上传,流被自动关闭
我正在通过多部分网络表单上传压缩文件。我正在使用 groovy 和 grails 进行上传,但代码在 Java(带有 spring)中看起来也很相似......
如下amazonS3Service.put
_
似乎 s3.putObject 存储桶、s3Obj 方法正在关闭我的流,因为我收到了 streamClosed 异常。我需要从 zipfile 中获取 nextentry,因此不应关闭流!
我曾尝试将 byteArrayinputstream 与 zis.getBytes() 一起使用,但即使 getBytes() 也会关闭流!
我有哪些选择?
谢谢
grails - Grails,使用 jets3t 连接到 S3
我正在尝试使用“JetS3t”连接到 Amazon S3 存储桶,我也在使用 Quartz 插件,我在 grails-app/jobs 中有一份工作,我喜欢在其中访问 S3,但在第二行出现错误:
这是错误:
我是否必须创建服务并在那里设置我的 S3?
android - 在 Android 上使用 JetS3t 时抛出 IncompatibleClassChangeError 异常
我正在开发一个 Android 应用程序,它将一些文件上传到Google Cloud Storage。为此,我使用的是JetS3t java toolkit 0.9。我尝试在标准 Java 项目上使用它并且工作正常,但是当我想在Android项目上使用它时,我遇到了异常。
实例化 JetS3t Google 存储服务时遇到问题,如下所示:
执行此行时遇到的异常是这一行:
查看抛出的异常,最终的错误正是在这一行:
我尝试了一堆我在互联网上看到的东西,比如将 httpcore-4.1 和 httpclient-4.1 jar 添加到类路径中,但没有用。
如果有人帮助我,非常感谢!谢谢!
hadoop - 使用 Spark/Hadoop 从 S3 读取时出错
我正在尝试使用Spark从 Amazon S3 读取数据。但我得到
从 Hadoop 调用内部。我已经尝试下载 jets3t 并将所有包含的 jar 添加到我的类路径中,但它没有帮助。以下是正在发生的事情的完整记录:
amazon-web-services - 计算 Amazon S3 存储桶大小
我的要求是计算 Amazon s3 上的各个存储桶大小。目前正在使用JetS3T库进行操作。
我正在使用ThreadedStorageService.listObjects()方法来查找每个单独对象的大小,然后对其进行总结。尽管该方法使用多个线程,但它需要很长时间才能列出存储桶中的所有对象。80,000 个对象需要 45 分钟。
有没有其他方法可以更快地计算桶大小?
hadoop - 使用 hadoop 从 S3 'requester pay' 存储桶下载数据时出错
我正在使用带有命令 distcp 的 Hadoop 1.2.0 从 S3 的“请求者付费”存储桶中下载数据,我有有效的 aws id 和密钥,但是它出错了,如下所示。
org.jets3t.service.S3ServiceException: S3 GET failed for '/dataset' XML 错误消息: AccessDenied
Access Denied4FDSDFS454DDWzToSESDFkzv+eiJBmRbqBkW0iWeOcSDFSD834SDFWE923UBzfMiyGXYXeX
我尝试了很多方法:将 jets3t 升级到最新版本,并按照这篇文章(http://www.mail-archive.com/user@pig.apache.org/msg03395.html)进行配置(但是,这并没有不行)。
但是,没有一个有效。有谁如何解决这个问题?
java - JetS3t Java 对象无效
我尝试查看 JetS3t API 文档,但似乎找不到能够在上传后使我们在 Amazon CDN 上的现有文件无效的功能。
有谁知道此功能是否存在或是否有合适的解决方法?
hadoop - 配置 Hadoop 以使用 S3 requester-pays-enabled
我正在使用 Hadoop(通过 Spark),并且需要访问由请求者付费的 S3N 内容。通常,这是通过启用httpclient.requester-pays-buckets-enabled = true
in来完成的jets3t.properties
。然而,我已经设置了这个,Spark / Hadoop 忽略了它。也许我把它jets3t.properties
放在了错误的地方(/usr/share/spark/conf/
)。如何让 Hadoop / Spark / JetS3t 访问请求者付费存储桶?
更新:如果您在 Amazon EC2 之外,则需要这样做。在 EC2 中,亚马逊不需要请求者付费。因此,一个粗略的解决方法是用完 EC2。