下一代人工智能长什么样?可感知和理解行为、解释决定筹划_人工智能_模子
下一代人工智能是什么样的?
5月21日,英国初创公司Cognino AI联合创始人兼首席实行官普里蒂·帕迪(Priti Padhy)在第五届天下智能大会科技向善与人工智能教诲论坛上通过***表示,不才一波人工智能浪潮中,AI必须具有感知和理解行为的能力,利用人类理解措辞的能力,将措辞转化为知识,将数据转化成智能,并做出决策。人工智能还要具备可阐明性,通过模型可以阐明为什么人工智能会做出这种决策,就像人类可以阐明为什么会做出某种决定,可以阐明为什么会认为图上的动物是狗而不是狐狸。
Cognino AI总部位于英国伦敦,在美国、巴西和印度设有办事处,专注于自学习可阐明的人工智能方面,目标是用“可阐明的AI”赋能决策。
帕迪说,大约10年前,也便是2010年涌现了神经网络,它在面部识别和图像识别方面非常准确。过去十多年我们在人工智能方面已经取得了巨大进步,“上一波人工智能的浪潮不仅强大,而且带来了真正的变革。”
但人工智能仍旧面临很多寻衅。帕迪给出一张孩子拿着牙刷的图片。“为什么我很快能意识到这是一个拿着牙刷的孩子,由于作为人类,我们关注周围的环境,仔细不雅观察我们可以看到周围有牙刷和水槽,以是这个孩子很可能拿的是牙刷。”
而如果是人工智能来识别,由于目前AI紧张基于大型统计模型,AI会认为图上是一个孩子,“可能会认为是一个拿着棒棒糖的孩子,也可能会认为是一个拿着牙刷的孩子,或者可能是一个拿着勺子的孩子。”总之AI肯定会认为这是一个孩子,但无法根据周围的信息判断他拿的是什么,因此不能绝对准确地对图片上的内容进行预测。
“也便是说,当涉及到个别情形时,AI有时是不可靠的。”帕迪说,他最近测试了一款有趣的食品识别运用程序,然而程序却见告他食品拼盘图片有99%的可能性是章鱼。
“这便是目前面临的寻衅。之以是判断为章鱼,是由于短缺高下文的情境信息。”帕迪说,AI不具备清晰的理解能力,不能像人类一样处理信息并将其置于情境中。“我们利用的情境是基于我们的短期影象和长期影象,以及我们当前学到的和过去学到的知识。”
相对付十多年前涌现的AI浪潮,帕迪认为,不才一次浪潮中,AI必须具有感知和理解行为的能力,利用人类理解措辞的能力,将措辞转化为知识,将数据转化成智能,并做出决策。“我认为这才是真正的人工智能,它可以根据高下文的情境理解并采纳行动。”
另一方面,人工智能还要具备可阐明性,“我们须要考虑什么是有效的,什么是可追溯的,什么是可审核的。”对付可阐明的AI,帕迪说,也便是通过模型可以阐明为什么人工智能会做出这种决策,“每当涉及到AI时,我们都能阐明模型事情的事理。”
“我们关注人工智能如何不雅观察、学习、推理、抽象、阐明,并且可以交互学习,还有短期影象和长期影象,就像人类那样。这样就可以通过大量真实天下的数据进行推理,并且可以做出一个可以真正阐明的决定。”
帕迪说,团队正在研究下一代人工智能。他们并不通过演习数十亿的狗的图片来预测图片上是一只狗,不在大型繁芜数据集的根本长进修,而是通过示范人类学习的过程让模型学习。“我们的想法是基于一组演习数据和一些基本组成元素,学习的过程是基于基本元素的。”
“以是我们须要创建一个可以被演习的AI模型,这些基本元素的组合决定了狗是由什么组成的。狗由头、尾巴、四条腿和身体组成,还有两只耳朵。这些是我们须要让模型学习的各种基本元素。”
团队还让场景信息发生变革,在这一过程中逐步见告模型这是一只狗,“险些90%的学习是通过自我学习的,由于模型理解了狗的基本组成元素。以是纵然场景改变了,模型仍旧可以知道这是一只狗。”
但这并没有就此结束,帕迪说,他们还必须弄清楚为什么模型会做出这样的判断,为什么模型会认为这是一只狗而不是一只狐狸,能否通过改变模型的某些特色要向来影响模型的决策。“必须将这种真实性、可审核性和解释性作为我们所构建的AI构造的根本。”
也便是说,通过引入这些根本元素和高下文的情境信息,让模型能够像人类一样学习,并随着情境的改变而不断做出调度。模型也须要具有阐明的能力,就像人类可以阐明为什么他们会做出某种决定,可以阐明为什么他们会认为这是一张狗的照片。
任务编辑:李跃群
校正:刘威
本文系作者个人观点,不代表本站立场,转载请注明出处!