作为监管机构的卖力人,根斯勒在接管彭博社采访时表示,人工智能在金融市场最明显的风险是黑匣子算法,在用户看不到算法内部功能的封闭系统下运行,很可能会失落去掌握,终极同时***同样的东西,导致市场崩溃。

专家警告:人工智能或激发下一场金融危机_人工智能_可能会 云服务

根斯勒多年来一贯警告说,如果不及时掌握,人工智能可能会非常危险。
2020年,当时还是麻省理工学院教授的根斯勒在一篇文章中警告深度学习(一种机器学习和人工智能系统)对金融稳定的风险。
文章认为,现有的监牵制度尚未准备好应对这种危险。

他指出,人工智能在金融市场中的危险之一是同质化。
这种情形可能是所谓的“学徒效应”的结果。
当有资格管理此类系统的人来自同一所学校、拥有相同的背景并建立稳定的亲和力时,就会涌现这种效应。
根斯勒在研究中阐明说:“根本没有那么多人接管过构建和管理这些模型的培训,而且他们每每来自相称相似的背景。

这种风险也可能是由法规本身造成的。
如果监管机构对人工智能可以做什么和不能做什么进行掌握,可能会增加它们终极同时做同样事情的危险,并会增加大多数公司选择利用由少数供应商供应的相同人工智能的可能性。

由于人工智能以不可预测的办法进化,我们很难明得它们的行为机制,而这隐含的巨大风险之一便是它们可能会对人类产生歧视行为。
例如,一款昨天并不是种族主义者的人工智能本日可能会成为种族主义者,而我们却没有及时意识到并阻挡它。
此外,这些规则将是完备不透明和不可控的,乃至没有追溯性监管,这使得监管机构险些不可能阻挡未来的崩溃。

根斯勒警告说:“根据相同的数据集构建的模型可能会产生高度干系的预测,这些预测同等进行,从而导致羊群效应。
”他还认为,对海量数据源的需求可能会产生垄断,并成为导致全体系统全面崩溃的“单一故障点”。

此外,他指出,纵然是最大的数据集也是不完全的,“互联网利用情形、手持设备数据、远程信息处理数据以及GPS数据和智好手机数据根本没有足够长的韶光范围来覆盖单个完全的金融周期”。

根斯勒认为,最有效的监管对策是增加金融机构利用人工智能工具所需的成本存量。
监管机构可能会哀求对人工智能系统进行测试,以阻挡或禁止公司采纳无法阐明的行动,从而减缓增长速率,但根斯勒也警告说,“即便如此,也不太可能避免系统性风险的增加”。
他说,纵然履行了监管规则,仍“不敷以完成当前的任务”。
(编译/韩超)

来源: 参考