0

该文档显示仅返回自定义训练模型的概念:

{
  "status": {
    "code": 10000,
    "description": "Ok"
  },
  "outputs": [
   ...,
  "created_at": "2016-11-22T16:59:23Z",
  "model": {
   ...
    },
    "model_version": {
    ...
      }
    }
  },
  "input": {
    "id": "e1cf385843b94c6791bbd9f2654db5c0",
    "data": {
      "image": {
        "url": "https://s3.amazonaws.com/clarifai-api/img/prod/b749af061d564b829fb816215f6dc832/e11c81745d6d42a78ef712236023df1c.jpeg"
      }
    }
  },
  "data": {
    "concepts": [
      {
       ...
      },

而预先训练的模型(例如人口统计和人脸返回区域)具有图像中的 x/y 位置。

如果我想检测图像中的 WHERE,则会为我的自定义模型预测概念。我唯一的选择是将图像拆分为网格并作为字节提交吗?这似乎适得其反,因为这会导致额外的查找。

4

1 回答 1

1

在 Clarifai 平台中:Demographics、Face Detections 和 Apparel Detections 都是对象检测模型。一般、旅游、美食等都是分类模型。分类和对象检测是两个不同(虽然看起来相似)的计算机视觉任务。

例如,如果您希望将图像分类为“悲伤”,那么设置“悲伤”的边界框(即区域轮廓)是没有意义的。分类考虑了整个图像。

对象检测,查看图像的各个部分并尝试查看对象是否存在(有点像您建议的解决方法)。那么“刀”或您正在寻找的任何离散对象在哪里。

令人困惑的是,您可能有概念上的重叠,例如有“脸”的概念。您可以让一张图片具有此分类,但也可能在特定位置检测到特定的“面部”对象。分类不限于抽象概念(尽管在考虑这两种方法之间的差异时考虑它们是有帮助的)。

目前所有自定义模型都是分类模型,而不是对象检测模型。我认为在系统的企业级别上正在为此做一些工作,但我不相信目前有任何可用的东西。您使用的通用模型听起来就像是对象检测模型——因此您可以获得一些额外的信息!

顺便说一句:如果我理解的话,您提出的解决方法应该可行,基本上将图像分成小图像并要求对每个图像进行分类。你是对的,这将是低效的,但我目前不确定是否有更好的选择。

于 2019-12-16T17:47:23.307 回答