5

我开始学习 Torch7 以进入机器学习/深度学习领域,我发现它很有趣(而且非常复杂哈哈)。然而,我主要关心的是,我能否将这种学习转化为应用程序——主要是我能否将我的 Torch7 Lua 脚本转化为应用程序可用于执行机器学习计算的服务器?如果可能的话,怎么做?

谢谢

4

5 回答 5

5

你可以用华夫饼。这是它页面上的 hello world 示例:

local app = require('waffle')

app.get('/', function(req, res)
   res.send('Hello World!')
end)

app.listen()

假设您的算法是一个简单的人脸检测器。输入是图像,输出是某种 json 格式的人脸检测。您可以执行以下操作:

local app = require('waffle')
require 'graphicsmagick'
require 'MyAlgorithm'

app.post('/', function(req, res)
  local img, detections, outputJson
  img = req.form.image_file:toImage()
  detections = MyAlgorithm.detect(img:double())
  outputJson = {}
  if (detections ~= nil) then
    outputJson.faceInPicture = true
    outputJson.faceDetections = detections
  else
    outputJson.faceInPicture = false
    outputJson.faceDetections = nil
  end
  res.json(outputJson)
end)

app.listen()

这样,您的算法就可以用作独立的服务。

于 2016-02-17T21:17:53.940 回答
3

您还可以使用我们用 torch 测试过的async包。

于 2015-03-30T21:06:49.887 回答
2

您应该将 Torch 视为一个库(即使您可能将其作为独立的可执行文件访问)。该库可以从一些可通过 HTTP 访问的 Lua 代码中使用。Lua 代码可能在OpenResty中运行,它将处理所有 HTTP 交互,并且您可以获得与 OpenResty 相同的性能,可以配置为使用 LuaJIT。

另一种选择是使用基于 luasocket 和 copas 库的 HTTP 处理(例如Xavante)或使用LuaWebserver页面上列出的选项之一。

于 2015-03-30T20:01:59.523 回答
1

异步华夫饼都是不错的选择。另一种选择是使用ZeroMQ + Protocol Buffers。无论您首选的 Web 开发环境是什么,您都可以使用 ZeroMQ 以异步方式向 Torch 发送请求,可能使用协议缓冲区序列化消息,然后在 Torch 中处理每个请求并返回结果。

通过这种方式,我设法获得了比waffle的 20K fib 测试更高的吞吐量。

于 2016-08-08T20:27:42.667 回答
0

试试 llserver - 简约的 Lua 服务器。作为单个协程运行,通过回调函数提供动态内容:https ://github.com/ncp1402/llserver 您可以在其他协程中执行其他任务/计算。

于 2015-06-22T16:59:16.197 回答