14

阅读相关文档后,我不知道是否可以仅使用使用 NDK 编译的 C++/C 代码来创建用于获取用户输入的按钮或其他 UI 元素之类的东西。

当我想处理需要保持焦点的“窗口”或活动时没有问题,但我不知道如何构建带有回调和用户输入元素的 UI。

奇怪的是有一个窗口框架,但没有任何 UI 元素回调的痕迹。

我可以使用 NDK 构建触摸按钮或虚拟游戏手柄吗?


我很欣赏我们的努力和我们越来越接近我的观点的事实,但显然我对自己的解释不够好。

我在这里找到了这张图片 在此处输入图像描述

现在我的问题和这个问题的重点是:

假设我可以放置和绘制这个虚拟操纵杆,我如何才能只检测运动并像AndroidJoystick.onUpJoystick.onDown使用 Android 一样进行回调并且只使用 NDK?

如果 NDK 没有此类回调,我应该每次都检测 [x,y] 位置,将其与操纵杆的位置进行比较,存储上一个位置,比较上一个位置和下一个位置找到方向?

由于传感器以非常快的速度抛出事件,我认为仅考虑原始 X、Y 对我自己构建它最终会导致控制系统效率非常低,因为它不会在操作系统级别使用适当的传感器呼叫。

根据 NativeActivity 示例,还不清楚如何处理多个触摸点,例如我如何同时处理 2 个触摸事件?

只需考虑上面的图像,并考虑只有 1 个接触点的 x、y 坐标,以及如何以 NDK 支持的有效方式解决这个问题。

谢谢。

4

2 回答 2

15

你当然可以。阅读从 C(++) 调用 Java,并调用相应的 Java 函数 - 一个一个地构造 UI 元素(布局、按钮等),或者加载一个 XML 布局。没有特定于 C 的接口,但可以调用 Java 接口。

除非它是一款游戏,并且您打算通过 OpenGL ES 进行自己的绘图。我不确定你是否可以混合搭配。

在 aNativeActivity中,您仍然可以获得指向 Java Activity 对象的指针并调用其方法 - 它是通过结构作为参数传递给您的结构的clazz成员。取那个指针,取同一个指针,然后分配一个布局。ANativeActivityandroid_mainandroid_appJNIEnv*

这将如何与 OpenGL 绘图互操作,我不确定。

编辑:关于把你自己的输入处理放在一起。关键回调onInputEvent(struct android_app* app, AInputEvent* event)android_app结构内。将您的回调放在那里,Android 会在适当的时候调用它。用于AInputEvent_getType(event)检索事件类型;触摸事件的类型为 AINPUT_EVENT_TYPE_MOTION。

EDIT2:这是一个抓取触摸事件的最小本机应用程序:

#include <jni.h>
#include <android_native_app_glue.h>
#include <android/log.h>

static int32_t OnInput(struct android_app* app, AInputEvent* event)
{
    __android_log_write(ANDROID_LOG_ERROR, "MyNativeProject", "Hello input event!");
    return 0;
}

extern "C" void android_main(struct android_app* App)
{
    app_dummy();
    App->onInputEvent = OnInput;

    for(;;)
    {
         struct android_poll_source* source;
         int ident;
         int events;

         while ((ident = ALooper_pollAll(-1, NULL, &events, (void**)&source)) >= 0)
         {
             if(source != NULL)
                 source->process(App, source);

             if (App->destroyRequested != 0)
                     return;
         }
    }

}

当然,您需要围绕它添加一个项目,包括清单、Android.mk 和所有内容。Android.mk 将需要以下内容作为最后一行:

$(call import-module,android/native_app_glue)

native_app_glue是一个静态库,为通常通过 Java 使用的 API 提供一些 C 桥接。

你也可以在没有胶水库的情况下做到这一点。但是你需要提供你自己的 functionANativeActivity_onCreate和一堆其他的回调。android_main/android_app组合是胶水库定义的接口。

编辑:对于触摸坐标,使用AMotionEvent_getX/Y(),将事件对象作为第一个参数传递,将指针的索引作为第二个参数传递。用于AMotionEvent_getPointerCount()检索指针(触摸点)的数量。这是您对多点触控事件的本机处理。

我应该每次都检测 [x,y] 位置,将其与操纵杆的位置进行比较,存储上一个位置,比较上一个位置和下一个位置以获得方向?

简而言之,是的,你是。虚拟操纵杆没有内置平台支持;您处理触摸和坐标,并将其转化为应用程序的 UI 隐喻。这几乎就是编程的精髓。

不是“每次”——只有当它发生变化时。Android 是一个事件驱动的系统。

现在,关于您的“我想要它在操作系统级别”的情绪。它在很多层面上都是错误的。首先,操作系统不欠你任何东西。操作系统就是它,接受它或离开它。其次,不愿意付出努力(也就是懒惰)在软件社区中通常是不受欢迎的。第三,操作系统代码仍然是代码。将某些东西移入操作系统可能会提高您的效率,但您为什么认为它会让用户察觉到差异?我们正在谈论的是触摸处理 - 不是特别占用 CPU 的任务。您是否真的构建了一个应用程序、配置文件并发现它的性能不足?在你这样做之前,永远不要猜测瓶颈在哪里。这个词是“过早优化”,这是每个人和他们叔叔的猫都会警告你的东西。

于 2012-10-10T14:52:25.450 回答
1

Rawdrawandroid显示没有什么是不可能的。使用它,您可以完全用 C/C++ 编写 UI 和处理 UI 事件。

注意:不会使用 java、classes.dex、字节码。

示例应用:https ://play.google.com/store/apps/details?id=org.cnlohr.colorchord

请阅读 rawdraw 开发者如何处理常见情况:

使用此框架,您将获得:

  • 制作一个支持 OpenGL ES 的窗口
  • 加速度计/陀螺仪输入,多点触控
  • 用于按键输入的 android 键盘
  • 能够将资产文件存储在您的 APK 中并使用 AAssetManager 读取它们
  • 权限支持使用声音之类的东西。https://github.com/cnlohr/cnfa中的示例
  • 直接访问 USB 设备。https://github.com/cnlohr/androidusbtest中的示例

NDK UI 可以用 java 以外的方式编写。

这一点也必须做一些事情来坚持互联网上所有那些在 Stack Overflow 问题上发布“那是不可能的”或“你做错了”的 Luddite ......在 JNI 中请求权限“哦,你有在 Java 中做到这一点”或其他类似的愚蠢的东西。我对你对什么是可能的或不可能的意见完全不感兴趣。这是计算机科学。没有限制。我可以做任何我想做的事。这只是一点点。你不拥有我。

您可以从 C 访问 android api,就像 java 可以:

PS如果你想要一堆例子来说明如何在 Android 上用 C 语言做很多你“需要”java 的事情,滚动到这个文件的底部:https ://github.com/cntools/rawdraw/blob/ master/CNFGEGLDriver.c - 它展示了如何使用 JNI 将大量内容编组到 Android API 或从 Android API 编组,而无需跳回 Java/Kotlin 领域。

于 2021-06-23T17:09:53.570 回答