问题标签 [screencast]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - AllShare Cast / Screen Cast 不适用于某些手机
我去了三星网站并下载了媒体控制 SDK 包。当我在 Galaxy S3 Android 4.3 上使用 AllShare Cast 视频播放器时,我的智能电视(在同一网络中)出现在 AllShare Cast 列表中。
然而,
当我在根深蒂固的 Galaxy Note 2 Android 4.1.1 上使用相同的应用程序时,我的智能电视(在同一网络中)没有出现在 AllShare Cast 列表中。
代码:
wifi被打开了。
有人可以帮帮我吗?
有些应用程序甚至可以看到我的 Apple TV 设备(我的应用程序甚至无法在 AllShare Cast 列表中看到此 Apple TV 设备)
非常感谢。
linux - Linux 上的屏幕视频(截屏)录制
我试图录制所有监视器或选择的视频,所以想知道在 Linux 上使用什么。
想到的想法是屏幕截图一堆,但这可能不是正确的方法。
我查看了 Cairo 文档,但找不到任何内容。在 Windows 上我找到了 DirectShow,在 OSX 上我找到了 AVFoundation。
编辑:我刚刚遇到了一些事情:XvGetVideo
这是一个选择吗?
c++ - 使用 GetBackBuffer DirectX 捕获在顶部运行的桌面或窗口的屏幕截图
嗨,我希望使用 DirectX 中的 GetBackBuffer() 方法捕获顶部窗口或当前在顶部运行应用程序的桌面的屏幕截图。而不是保存,我想在窗口中显示屏幕截图。
但是,我是 DirectX 编程的新手,并且不清楚要调用的函数的顺序。我参考了一些博客和线程并编译了以下代码:
我知道我做错了什么,并在过去几天一直试图解决这个问题,但我无法修复我的代码以使其捕获桌面的屏幕截图。
因此,请建议我需要在代码中进行哪些更改,以便它完成它应该做的事情。
javascript - 使用 Socket.IO 和 Node.JS 的截屏网站
我正在尝试实现一个网站的截屏,而不需要任何软件,只需要一个浏览器。没有必要对网站进行真正的截屏。也许用浏览器,视口分辨率,滚动像素等信息“重建”网站是一个很好的解决方案。它仅用于网站的解释之旅,它的功能。
我目前的解决方案:该脚本正在使用 html2canvas ( http://html2canvas.hertzen.com/ ) 对网站进行“截图”。然后我将屏幕截图作为 base64 编码的 png 数据传输到接收器。他们对其进行解码并将其绘制到那里的网站。
但是 html2canvas 需要大约 1 秒来生成一个画布(带有纯文本网站)。为带有图像的网站生成它大约需要 5-10 秒。那就是太长了。
你有其他方法的想法吗?
javascript - 谷歌浏览器录屏
我正在开发一个 chrome 扩展。我想将 google chrome 的浏览器选项卡记录为特定时间的视频,就像 ScreenCastify chrome 扩展一样。我将如何在我的 chrome 扩展中做到这一点。
提前致谢
performance - 如何通过使用 avconv 并将其通过管道传输到 avplay 来减少 CPU 消耗?
见最终编辑。
我需要捕获第二台显示器并在一个小窗口的主显示器中显示。我需要的不是质量,而是性能。
因此,捕获 1280x1024 的第二个监视器并以 15fps 的速度在 640x480 窗口中显示并水平翻转的(工作)命令将是(来自askUbuntu):
- 如何使用“无”插值进行缩放?
- 我使用“-c:v mpeg4”和“-b:v 1000k”来获得良好的图像质量,但是......还有其他格式/比特率可以至少减少 CPU 消耗吗?
- 我知道水平翻转是一种基本效果,但是有没有办法告诉 avconv 通过使用 -vf 选项来减少 CPU 呢?
- 当播放窗口星星显示时,它的 15fps 受到尊重。但是随后,它逐渐变得越来越低以被冻结......直到我点击窗口。然后,它上升到 15fps 并再次变低。为什么会这样以及如何避免呢?我尝试将“nice -n-20”与 avconv 和 avplay 一起使用,但这没有区别。
当我说我需要性能而不是质量时,我说节省 CPU 更重要……但我不想看到一个充满低压缩伪影的视频。
我在 Ubuntu-Mate 14.04 上。
谢谢!
最后编辑:命令将是:
但是帧率问题并没有解决,它消耗了 16-18% 的 CPU。在这个问题中,有 Gstreamer 选项,带有 gst-launch:它消耗 2-4% 的 CPU。所以,avconvert/avplay 选项对我没有用。
java - 如何使用 Java 截屏自动化测试?
我目前正在使用 Selenium 和 TestNg 和 Java 来自动化我的测试。我可以在测试运行时截取屏幕截图,但在某些情况下,测试通过,而理想情况下它应该失败。
那么,是否有任何 java 工具可以帮助记录正在运行的 Selenium 测试?
基本上,我想将屏幕投射添加到我的框架中。我在 web/SO 上搜索了很多,但找不到任何相关资源。欢迎任何帮助或建议。
android - 缓冲 MediaProjection 的最后 X 分钟的最有效方法是什么
我在想一个有效的解决方案时遇到了一些麻烦。我预见到了一些问题,第一个是...
OOM 预防
如果我想要过去的 30 秒甚至 5 分钟,这是可行的,但如果我想要过去的 30 分钟或整小时,或者一切呢?保留字节缓冲区意味着将其存储在 RAM 中。存储超过 100 兆字节听起来像是虚拟内存自杀。
好吧,如果我们将之前录制的媒体的 Y 时间量(比如 30 秒)存储到磁盘中的某个 tmp 文件中,那该怎么办。这可能会起作用,我可以使用像 mp4 解析器这样的库在完成后将它们全部连接起来。然而...
如果我们有 30 分钟的价值,那就是大约 60 个 30 秒的剪辑。这似乎是一种烧录 SD 卡的好方法,即使这不是问题,我也无法想象将一百多个文件连接成一个文件所需的时间。
根据我一直在研究的内容,我正在考虑使用本地套接字来做类似的事情......
MediaRecorder -> setOutputFile(LocalSocket.getFD())
然后在本地套接字中......
LocalSocket -> FileOutputStream -> 写入(数据,位置,bufsiz) -> 刷新()
后台线程处理写入和跟踪位置以及缓冲区的位置。
这纯粹是伪代码,我还不足以测试它,我是否朝着正确的方向前进?从我的想法来看,这只保留一个被覆盖的文件。由于它每 Y 秒只被写入一次,因此它最大限度地减少了 IO 开销,并最大限度地减少了它占用的 RAM 量。
视频长度到缓冲区大小
我将如何从请求的视频大小中获取缓冲区的大小。这很奇怪,因为我看到一些长视频很小,但短视频很大。所以我不知道如何准确地确定这一点。如果我知道从 Media Recorder 设置的视频长度、编码等,任何人都知道如何预测这一点?
例子
有谁知道这方面的任何例子?我不认为这个想法是完全原创的,但我没有看到很多这样的想法,如果是这样,它就是闭源的。一个例子有很长的路要走。
提前致谢