我开始学习 Torch7 以进入机器学习/深度学习领域,我发现它很有趣(而且非常复杂哈哈)。然而,我主要关心的是,我能否将这种学习转化为应用程序——主要是我能否将我的 Torch7 Lua 脚本转化为应用程序可用于执行机器学习计算的服务器?如果可能的话,怎么做?
谢谢
你可以用华夫饼。这是它页面上的 hello world 示例:
local app = require('waffle')
app.get('/', function(req, res)
res.send('Hello World!')
end)
app.listen()
假设您的算法是一个简单的人脸检测器。输入是图像,输出是某种 json 格式的人脸检测。您可以执行以下操作:
local app = require('waffle')
require 'graphicsmagick'
require 'MyAlgorithm'
app.post('/', function(req, res)
local img, detections, outputJson
img = req.form.image_file:toImage()
detections = MyAlgorithm.detect(img:double())
outputJson = {}
if (detections ~= nil) then
outputJson.faceInPicture = true
outputJson.faceDetections = detections
else
outputJson.faceInPicture = false
outputJson.faceDetections = nil
end
res.json(outputJson)
end)
app.listen()
这样,您的算法就可以用作独立的服务。
您还可以使用我们用 torch 测试过的async包。
您应该将 Torch 视为一个库(即使您可能将其作为独立的可执行文件访问)。该库可以从一些可通过 HTTP 访问的 Lua 代码中使用。Lua 代码可能在OpenResty中运行,它将处理所有 HTTP 交互,并且您可以获得与 OpenResty 相同的性能,可以配置为使用 LuaJIT。
另一种选择是使用基于 luasocket 和 copas 库的 HTTP 处理(例如Xavante)或使用LuaWebserver页面上列出的选项之一。
异步和华夫饼都是不错的选择。另一种选择是使用ZeroMQ + Protocol Buffers。无论您首选的 Web 开发环境是什么,您都可以使用 ZeroMQ 以异步方式向 Torch 发送请求,可能使用协议缓冲区序列化消息,然后在 Torch 中处理每个请求并返回结果。
通过这种方式,我设法获得了比waffle的 20K fib 测试更高的吞吐量。
试试 llserver - 简约的 Lua 服务器。作为单个协程运行,通过回调函数提供动态内容:https ://github.com/ncp1402/llserver 您可以在其他协程中执行其他任务/计算。