问题标签 [writable]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
5 回答
22111 浏览

android - 如何在android的sdcard中创建文件夹

我想在我的 sdcard 中创建文件夹,我使用了以下代码:

另外,我设置了 sdcard 写权限:

我已经多次运行该应用程序,每次获得 LogCat 输出时:

我读过类似的问题,但没有什么有用的。我应该怎么做才能让代码运行?我的问题是什么?

0 投票
1 回答
212 浏览

java - 如何在 groovy 中编写可写接口

希望用 groovy 为 Asciidoctor 标记写一个 groovy.text.Template。至今 :

render() 返回一个字符串,我们如何将该字符串转换为实现 Writable 接口的对象,我只是不明白。也看不到如何使用/读取/存储返回的“可写”对象:-P

0 投票
1 回答
165 浏览

groovy - Groovy 可写对象?

有一个返回 Writable 对象的 SimpleTemplate 类。可以这样做吗,因为我看不到要返回什么样的对象。我试过这样的东西:

我将如何从另一种方法中读取变量?

0 投票
1 回答
71 浏览

memory - 如何知道哪些内存区域是可写的

我想知道在调试进程时如何知道哪些内存区域被标记为可写。

所以,我在代码中放了一个断点,我想在那一刻知道哪个内存区域是可写的。我该怎么做?我正在使用 IDA Pro。

谢谢

0 投票
3 回答
434 浏览

java - 输入大小约为 2Mb 的 Hadoop mapreduce

我尝试使用 hadoop 分发计算。

我正在使用序列输入和输出文件以及自定义可写文件。

输入是一个三角形列表,最大大小为 2Mb,但也可以更小 50kb 左右。中间值和输出是自定义 Writable 中的 map(int,double)。这是瓶颈吗?

问题是计算比没有hadoop的版本慢很多。此外,将节点从 2 个增加到 10 个,并不会加快进程。

一种可能性是由于输入尺寸小,我没有得到足够的映射器。我进行了更改的测试mapreduce.input.fileinputformat.split.maxsize,但它变得更糟,而不是更好。

我在本地使用 hadoop 2.2.0,并在亚马逊弹性 mapreduce 上使用。

我忽略了什么吗?或者这只是应该在没有 hadoop 的情况下完成的任务?(这是我第一次使用 mapreduce)。

您想查看代码部分吗?

谢谢你。

0 投票
2 回答
116 浏览

java - 在自定义可写对象中定义集合

我正在编写一个自定义的可写类,其中包含一些 java 集合。谁能告诉我我的实现怎么错了我在构造函数中传递了两个java集合

这是我得到'java.lang.nullpointerException'的错误

0 投票
2 回答
193 浏览

hadoop - Hadoop NullWritable 用于 RCFIle 格式文件

我不太明白 Hadoop 中 NullWritable 的概念。它的用途是什么,为什么 outputKeyClass 是RCFile格式 aNullWritable.class和 outputValueClass a BytesRefArrayWritable.class

0 投票
1 回答
166 浏览

hadoop - hadoop中可写接口错误

我创建了一个实现接口 Writable 的类 VectorWritable。我正在尝试将 VectorWritable 对象写入输出文件,但我得到了这个:VectorWritable@1355b88b。这是我的写方法:

函数 getVectorString() 给出一个 Text 对象。

0 投票
1 回答
387 浏览

hadoop - 如何维护reducer中MapWritables的顺序?

我的映射器实现

}

Reducer 的实现是:

}

我必须使用二级排序吗?还有其他方法吗?

0 投票
1 回答
1299 浏览

java - 在 hadoop.io api 的可写类中使用 readFields()

我是地图减少的新手。我想知道当我们在hadoop中实现我们的自定义数据类型时,readfields和write方法有什么用?例如,

在上面的示例中,自定义记录读取器使用 set 方法来设置 x、y 和 z 的值。所以我们最终,我们在映射器中获得了这些值。但是可写的 readfealds 和 write() 方法需要什么?请。帮助