系统通过不雅观察数千张人体图像来理解什么是人体,然后忽略掉不主要的背景物。

新型人工智能系统能像人类一样“窥一斑而知全豹”_体系_物体 AI快讯

彩色点显示了摩托车中央视图的估计坐标。

techxplore.com网站12月18日宣布,美国加州大学洛杉矶分校(UCLA)和斯坦福大学(Stanford University)的工程师们设计了一种打算机系统,能够创造并识别它“看到”的真实天下物体,其事理与人类利用的视觉学习方法相同。

该系统是基于“打算机视觉”技能开拓的。
这种技能使打算机能够读取和识别视觉图像。
这一成果可能是向一样平常人工智能系统迈出的主要一步:打算机可以自学、然后通过推理做出决策,并以更靠近人类的办法与人类互动——只管现在的人工智能打算机视觉系统越来越强大,但它们是针对特界说务设计的,其识别内容的能力受到人类演习和编程的限定。
纵然是当今最好的打算机视觉系统,如果看到的内容只是物体的某些部分,也无法还原出物体的全貌。
并且,它们在陌生环境中识别物体时也很随意马虎产生错觉。
研究职员一贯致力于开拓具有自学和推理能力的打算机识别系统。
例如,人类可以很轻松地通过看到的爪子和尾巴,推测出藏身于椅子后方的小狗,并推断小狗其他部分所在的位置。
然而,这对付大多数人工智能系统来讲,却是不可能完成的任务。

造成这种局势的缘故原由是什么呢?由于目前的打算机视觉系统并不是为自学而设计的。
它们必须接管准确的学习演习才能具有识别功能。
鉴于此,打算机更无法阐明确定物体的基本事理,也无法像人类那样构建内部图像或学习工具的知识性模型了。
美国加州大学和斯坦福大学的研究职员在《美国国家科学院院刊》上揭橥的论文,展示了一种办理这些毛病的潜在方法。
他们开拓的新人工智能系统具备了模拟人类视觉和识别物体的功能。
人工智能系统的识别功能紧张包含3个步骤。
首先,系统将图像分割成小块。
然落后修如何将这些视图组合在一起形成“临时”的目标物体。
末了,它会查看周围区域的其他物体,并剖析它们是否与标识的主工具干系。

为了使新系统具有更类人的“学习”功能,研究职员利用互联网对系统进行了“沉浸式教诲”。
UCLA电子与打算机工程教授、项目研究首席瓦尼·罗伊乔杜里(Vwani Roychowdhury)说:“互联网为新系统供应了两种主要资源。
首先是描述同一类型物体的海量图像和***。
其次是物体的多角度展示情形。
”为了开拓这个框架,研究职员还借鉴了认知心理学和神经科学的部分理论。
罗伊乔杜里说:“情境学习是人类大脑的关键特色之一,它帮助我们建立情景模型以及所有事物的功能性联系。

研究职员用大约9000张人像图片对系统进行了测试,创造系统能够在没有外部勾引和图像标记的情形下建立人体的详细模型。
研究职员还利用摩托车、汽车和飞机等图像进行了类似测试,系统的表现与经由多年培训的传统打算机视觉系统等同乃至更好。

编译:雷鑫宇 审稿:德克斯特 责编: 唐林芳

期刊来源:《美国国家科学院院刊》

原文链接:https://techxplore.com/news/2018-12-ai-mimics-humans-visualize.html

中文内容仅供参考,统统内容以英文原版为准。