澎湃新闻记者王心馨
要让计算机学会识别一张照片中的图像,通常来说,需要先让它看上千张已经标注好数据的图片。为了能简化计算机识别图像的过程,来自 Facebook 人工智能研究实验室(FAIR)的六名成员利用 Transformer 神经网络架构创建了端到端的图像检测 AI。
DETR 可以直接(并行)预测最终的检测结果
研究员将这套工具命名为 DETR(Detection Transformer),并表示这套工具简化了识别图片对象需要的组件。
FAIR 在官方博客中称,DETR 是第一个成功将 Transformer 架构集成为图像对象检测核心的工具。Transformer 架构可以像近年来对自然语言进行处理一样,彻底改变计算机视觉,或者缩小自然语言处理与计算机视觉之间的差距。
“通过将通用的 CNN 与 Transformer 架构相结合,DETR 可以直接(并行)预测最终的检测结果,与许多其他现代检测工具不同,新模型在概念上很简单,不需要专门的数据库。”研究员在论文中称。
Transformer 架构由谷歌研究人员于 2017 年创建,Transformer 架构最初旨在改进机器翻译的方法,但目前已发展成为机器学习的基石,可用于训练一些最流行的经过预先培训的语言模型,例如 Google 的 BERT,Facebook 的 RoBERTa 等。Transformer 架构使用注意力函数代替递归神经网络来预测序列中的下一步。应用于物体检测时,Transformer 可以减少建立模型的步骤,例如创建空间锚点和自定义图层等步骤。
研究人员在论文中称,DETR 取得的结果可与 Faster R-CNN 媲美。Faster R-CNN 是由微软研究院创建的对象检测模型,自 2015 年推出以来已获得近 10000 次引用。
尽管效果不错,但研究人员在论文中也指出了这个模型的主要问题之一:DETR 在大物体的识别上比小物体上更准确。研究人员表示:“目前的模型需要几年改进才能应对类似的问题,我们希望未来的工作能够成功解决。”
值得一提的是,DETR 是 Facebook 最新推出的 AI 计划,这个计划旨在找到一种语言模型来解决计算机视觉带来的挑战。在此之前,针对自家平台上泛滥的谣言和不实消息,Facebook 引入了恶意模因数据集挑战。Facebook 认为,恶意图文对于机器学习程序而言是一个有趣的挑战,机器学习在短时间内还找不到完美的解决方法。Facebook 希望开发者能创建出模型识别图像和随附文本中违反 Facebook 政策的内容。