知道你的图片是若何被分类的吗?Google AI 告诉你_不雅点_的是
针对这一问题,国外媒体的干系宣布通过对干系论文的解读作出理解释,雷锋网对其进行不改变原意的编译。
【 图片来源:Google 所有者:Google 】
人们常日会认为 ,随着 AI 系统繁芜性的增加,它的可阐明性会变得越来越差。但是,研究职员开始用函数库来寻衅这一想法,比如阐明深度学习的神经网络框架 PyTorch 是如何做决定的 Facebook 的 Captum、IBM 的 AI Explainability 360 工具包、以及微软的 InterpretML。
为了使 AI 的决策更加透明,Google 和斯坦福的一个研究团队近期开拓了一个机器学习模型——基于观点的自动阐明(雷锋网按: Automated Concept-based Explanation ,ACE),这个模型能够自动提取出“对人类故意义”的视觉观点,为模型的预测供应信息。
正如研究职员在其论文中阐明的那样,大多数机器学习阐明方法会改变单个特色(例如像素、超级像素、单词向量),去靠近于每一个目标模型。不过,这是一种不完美的方法,由于它很随意马虎受到一些输入变革的影响,哪怕是最小的变革。
和大多数机器学习阐明方法形成比拟的是 ACE 识别高等观点的方法:它在提取观点并确定每个观点主要性之前,会将一个演习过的分类器和一个类别的一组图像作为输入。详细来说,便是 ACE 片段图像在将类似片段作为相同观点进行分组,并将最主要的观点返回之前,有着多个决议去捕获多个层次的纹理、工具部分以及工具。
为了测试 ACE 的鲁棒性,该研究团队利用了 Google 的 Inception-V3 图像分类器模型,让其在 ImageNet 数据集上演习,并从数据集中的 1000 个类中选择 100 个类的子集来运用 ACE。
研究团队指出,被标记为主要的观点每每是屈服人的直觉的,例如,在检测警车时,司法部门的标识比地面上的沥青显得更为主要。不过,情形也不都是如此,在一些差异性不明显的案例中就有所表示。比如,预测篮球图像时,更为主要的是球员的球衣,而不是篮球。
其余,研究职员表示,他们通过人类实验验证了其意义和同等性,并进一步证明了 ACE 的确是携带着显著的预测旗子暗记。同时,研究职员还指出,他们的方法...自动将输入特性分组为高等观点;一些故意义的观点作为连贯的示例涌现,这对付精确预测它们所呈现的图像非常主要。
值得一提的是,研究职员也承认了 ACE 绝非是完美的,由于它还难以有效地提取非常繁芜或困难的观点。但是,他们认为,ACE 对模型的学习干系性供应的洞见会促进机器学习的安全利用。
雷锋网注:本文编译自 KYLE WIGGERS 揭橥在 venturebeat 上的文章。
本文系作者个人观点,不代表本站立场,转载请注明出处!