问题标签 [mediapipe]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Mediapipe 构建失败(没有名为“numpy”的模块)
我试图在 xcode 中构建 HandTracker 目标并得到这个错误。
这里说我没有numpy,但是我是通过pip install numpy安装的。
点子列表输出:
起初,该项目是正常构建的,但后来我不记得我做了什么,这些错误就开始了。Python 3.8.5、macOS 11.1、bazel 3.7.2
c++ - 具有 1 个通道分段张量的分段应用程序
我正在尝试将 mediapipe 的分段示例与我自己的 tflite 模型一起使用进行分段。但我的输出是一个单通道分割张量。如何更改 TfLiteTensorsToSegmentationCalculator 以使其适用于我的模型?
mediapipe - mediapipe修改人脸地标子图问题
我想修改 facemesh 示例并实现另一个 face_landmark 模型。我探索了 face_landmark 模块,在 face_landmark_gpu 子图中有一些节点让我感到困惑。据我所知,face_landmark_gpu 负责获取图像和人脸 ROI(从人脸检测模型获得)并在其上放置地标点。在这个子图中,有一个节点用于将推理计算器的输出向量拆分为 2 个向量。第一个用于界标张量,第二个用于face_flag_tensor。下一个节点将face_flag 张量转换为表示置信度的浮点数。这里的信心是什么意思?我相信人脸检测对人脸存在而不是地标模型负责。
我的模型给出了一个标志点的张量作为输出,没有其他输出作为置信度或面部存在分数。如何使用我的模型而不是默认的 mediapipe ladmark?任何帮助表示赞赏。
android - 是否有示例项目说明在 ArFragment(场景形式)上使用 MediaPipe AAR?
这个想法是跟踪用户的面部并使用 3d 模型对其进行增强。MediaPipe 将在来自 arFragment 的摄像头馈送上运行,以提供将 3d 模型放置在 arFragment 中所需的信息。是否有结合 MediaPipe 和 ArFragment 的示例项目?
augmented-reality - MediaPipe AAR 文件生成
我是 MediaPipe 框架的新手。我浏览了他们关于 opencv@3、bazel、homebrew 的文档设置和安装指南。我做了一切,我还能够编译和执行他们的 Hello World CPP 文件。
现在我想生成 face_detection 的 AAR 文件。我再次遵循了他们指南中提到的每一个步骤,但现在我被困在 opencv@3 的本地存储库无法获取的地方。
我在 MacOS Catalina -v 10.15.7 中工作
错误:/Users/rajeevkumar/Desktop/Android/mediapipe/third_party/BUILD:178:6: //third_party:opencv_binary 依赖于存储库@macos_opencv 中的@macos_opencv//:opencv 无法获取。没有这样的包'@macos_opencv//':存储库的路径是“/usr/local/opt/opencv@3”(绝对:“/usr/local/opt/opencv@3”)但是这个目录不存在。错误:目标'//mediapipe/examples/android/src/java/com/google/mediapipe/apps/aar_example:mp_face_detection_aar'的分析失败;构建中止:分析失败
android - MediaPipe 如何使用 BoxTracking aar?
作为 MediaPipe 的新手,我不熟悉图、节点、子图等的概念。
构建 BoxTracking 的aar文件后,由于模型所需的一些未知输入和输出参数,无法在基于 Android Studio gradle 的项目中运行它
在使用可视化工具比较HandTracking 图形 和BoxTracking 图形时,以及将 aar 文件添加为 lib的 HandTracking 工作项目,我添加了新的所需输入流和边包,如图所示。
结果总是有一些错误,主要是由于输入中有错误或 BoxTracking 是直接使用的子图。如何知道运行它需要哪个输入和输入的数据类型?
macos - 在 macOS 上运行 mediapipe 时出错;构建 C++ 命令行示例应用程序
我正在尝试将 mediapipe 用于大学项目并已安装它,甚至成功运行了 Hello World!在 C++ 示例应用程序中,但是当我尝试构建 C++ 命令行示例时,它给了我错误。
我跑了这个:
我得到的结果是这样的:
调试:/private/var/tmp/_bazel_kanzashaikh/c191ae13e9137350b50f6a19ce94bf21/external/rules_foreign_cc/workspace_definitions.bzl:15:10:警告:此分支已弃用,不再接收更新。请更新到 main 或选择特定的提交以固定在您的工作区中。信息:构建选项 --compilation_mode 已更改,丢弃分析缓存。错误:获取存储库时出错:java.io.IOException:存储库的路径是“/usr/local/opt/opencv@3”(绝对:“/usr/local/opt/opencv@3”)但此目录不存在. 错误:/Users/kanzashaikh/development/mediapipe/third_party/BUILD:178:6: //third_party:opencv_binary 依赖于 @macos_opencv//:opencv 在存储库@macos_opencv 中无法获取。没有这样的包'@macos_opencv//':存储库的路径是“/usr/local/opt/opencv@3” (绝对:“/usr/local/opt/opencv@3”)但该目录不存在。错误:目标'//mediapipe/examples/desktop/hand_tracking:hand_tracking_cpu'的分析失败;构建中止:分析失败信息:经过时间:0.194 秒信息:0 个进程。失败:构建未成功完成(加载了 0 个包,配置了 237 个目标)
我该如何解决?
android - mediapipe.components.ExternalTextureConverter.setSurfaceTextureAndAttachToGLContext returns null. makes the app crash onResume
I am working on jiuqiant's mediapipe face detection app. I cloned the repo, the app works fine, detects my face but when I pause the app and resumes back, it crashes. with error on this line permalink
#xA;with this log
#xA;It is clear that setSurfaceTextureAndAttachToGLContext is returning null value.
Looking at source code (below is the setSurfaceTextureAndAttachToGLContext
function in com.google.mediapipe.components.ExternalTextureConverter
)
it seems that this.frameSize is null. But I dont know how to fix this.
I also tried to hardcode the values
#xA;but it also gives error
#xA;Is it some version problem. I cant understand.
steps to recreate -
Clone repo and run.
Thats it. Now try pausing and resuming the app. please let me know if you dont face the error.
python - 为什么在 python file_list 错误上运行 mediapipe?
我在mediepipe上运行了文件但file_list错误怎么办?请帮我看看错误:
这个完整的代码媒体管道:
project - 我正在将 RNN 与 mediapipe 一起用于我的项目工作
在 linux 中通过终端运行输入视频以进行 mediapipe handtracking 时出现错误。请帮助我。因为我的项目时间不多了。我正在使用 Bazel 4.0.0 Mediapipe 手部跟踪 linux 18.04
错误
bazel-out/host/bin/external/com_google_protobuf/protoc '--python_out=bazel-out/k8-fastbuild/bin/external/com_google_protobuf/python' -Iexternal/com_google_protobuf/python -Ibazel-out/k8-fastbuild/bin /external/com_google_protobuf/python bazel-out/k8-fastbuild/bin/external/com_google_protobuf/python/google/protobuf/any.proto) 信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/api_pb2.py:external/ com_google_protobuf/python:警告:目录不存在。信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/type_pb2.py:external/com_google_protobuf/python:警告:目录不存在。信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/duration_pb2.py:external/com_google_protobuf/python:警告:目录不存在。信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/compiler/plugin_pb2.py:external/com_google_protobuf/python:警告:目录不存在。信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/descriptor_pb2.py:external/com_google_protobuf/python:警告:目录不存在。信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/struct_pb2.py:external/com_google_protobuf/python:警告:目录不存在。信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/field_mask_pb2.py:external/com_google_protobuf/python:警告:目录不存在。信息:来自 ProtoCompile external/com_google_protobuf/python/google/protobuf/timestamp_pb2.py:external/com_google_protobuf/python:警告:目录不存在。信息:
mediapipe/mediapipe/calculators/tensor/BUILD:594:11:编译 mediapipe/calculators/tensor/image_to_tensor_converter_opencv.cc 失败:(退出 1):gcc 失败:错误执行命令 /usr/bin/gcc -U_FORTIFY_SOURCE -fstack-protector - Wall -Wunused-but-set-parameter -Wno-free-nonheap-object -fno-omit-frame-pointer -g0 -O2 '-D_FORTIFY_SOURCE=1' -DNDEBUG -ffunction-sections ...(剩余 61 个参数(s ) 跳过)
使用 --sandbox_debug 查看来自沙箱 gcc 的详细消息失败:执行命令时出错 /usr/bin/gcc -U_FORTIFY_SOURCE -fstack-protector -Wall -Wunused-but-set-parameter -Wno-free-nonheap-object -fno-省略帧指针 -g0 -O2 '-D_FORTIFY_SOURCE=1' -DNDEBUG -ffunction-sections ...(剩余 61 个参数被跳过)
使用 --sandbox_debug 查看来自沙盒 mediapipe/calculators/tensor/image_to_tensor_converter_opencv.cc 的详细消息:在成员函数 'virtual absl::lts_2020_09_23::StatusOrmediapipe::Tensor mediapipe::{anonymous}::OpenCvProcessor::Convert(const mediapipe::Image&, const mediapipe::RotatedRect&, const mediapipe::Size&, float, float)': mediapipe/calculators/tensor/image_to_tensor_converter_opencv.cc:106:12: 错误:无法从'mediapipe:: 转换'张量' Tensor' 到 'absl::lts_2020_09_23::StatusOrmediapipe::Tensor' 返回张量;^~~~~~