我正在尝试按照此处的说明使用 NyARToolkit 库编译项目。
它提供了您需要的几乎所有源代码,但没有提供他正在使用的 EAGLView 类。它提供了一个链接,该链接被重定向到更新版本的 GLSprite 示例代码,该示例代码不再适用于本示例。
我该如何填写这个缺失的课程?有没有人尝试编译相同的项目?
我正在尝试按照此处的说明使用 NyARToolkit 库编译项目。
它提供了您需要的几乎所有源代码,但没有提供他正在使用的 EAGLView 类。它提供了一个链接,该链接被重定向到更新版本的 GLSprite 示例代码,该示例代码不再适用于本示例。
我该如何填写这个缺失的课程?有没有人尝试编译相同的项目?
虽然这是一个有趣的例子,但我建议您不要将应用程序建立在它之上。那里的示例使用私有 CoreSurface 框架来捕获视频帧,该框架将来可能会中断,并且不允许提交到 App Store 的应用程序。
相反,我会看 Benjamin Loulier 的VRToolKit 示例。它与您链接的示例执行相同的操作,但它使用 iOS 4.0 中新的 AVFoundation 相机捕获方法。它也应该更容易编译和运行(我刚刚下载了这个项目,它在最新的 SDK 上构建得很好)。
需要注意的一点是,这两个应用程序示例都基于 GPL 的 ARToolKit 库。因此,从它们派生的任何东西也必须是 GPL(它们在您的链接示例中声称拥有 MIT 许可证,但我不明白这是怎么回事)。关于 GPLv3 是否与 App Store 兼容存在一些争论,但您肯定需要在它下提供您自己的应用程序的源代码。