「AI 新应用」金融交易无法完全依靠AI_人工智能_成见
人工智能技能,尤其是天生式人工智能和大措辞模型(LLM),在金融领域广泛用于手动流程自动化、增强数据剖析和个性化客户互动。一些交易员最近也转向人工智能进行价格剖析和预测。
虽然人工智能在交易方面供应了许多好处,例如增强的数据处理能力和实行大批量交易的能力,但它也带来了潜在道德问题、系统故障、网络攻击等风险,可能会对交易和市场稳定产生严重影响。
在交易领域无法完备依赖人工智能,量化交易不可放荡盛行的5大缘故原由:
缺少情商
人工智能善于处理大量数据和实行大量交易。
然而,它缺少人类交易者的情商,包括对市场感情和道德考量的理解,也便是说,上面这些情绪成分是机器无法复制的。
最近的研究表明,人工智能每每难以理解感情表达的背景和奇妙之处。
虽然人工智能在处理速率和处理大型数据集方面具有显著上风,但其缺少情商带来了重大寻衅,特殊是在须要人际关系和情绪互动的领域。
事实上,由于这个缘故原由,在治疗或医疗保健等情绪理解至关主要的领域,人工智能的局限性可能也非常明显。
过度依赖历史数据
人工智能系统紧张依赖历史数据进行预测和决策。
如果发生了前所未有的市场事宜,这就可能会给交易决策带来问题。例如,近年来缺少监管的加密交易领域,所发生的 FTX 或币安等案例对市场行情的影响,就很难由AI系统做出判断。
此外,历史数据可能并不总是代表当前或未来的情形。
如果数据过期,就可能无法捕捉趋势、消费者行为、市场动态或监管环境的变革,导致人工智能系统根据不再存在的场景来做出预测。
有限的灵巧性温柔应性
与人类不同,人工智能算法有僵化的属性,可能无法快速适应溘然发生的市场变革。
人工智能系统是在其预定义的算法和参数范围内运行的。
它们在与演习条件类似的环境中表现出色,但在条件意外变革时就会碰着困难。
技能和经济变革的速率,每每超过人工智能系统的适应性,在交易等关键领域,人类对自动化系统的监督干预仍旧占主导地位。
道德和偏见问题
人工智能系统还可能根据其演习数据表现出偏见,从而导致决策过程中涌现道德问题。
如果演习数据包含偏见,人工智能的输出很可能会反响这些偏见,从而导致不公正或有偏见的决策。
这些偏见会影响从交易策略到客户互动的统统,因此须要对人工智能管理采纳谨慎的态度,并建立强大的人工监督框架。
对技能的依赖
过度依赖人工智能技能会带来风险,包括系统故障或网络攻击,这些都可能扰乱交易活动。
有几个具有影响的例子,解释了技能故障如何严重影响交易。
2012 年,由于交易算法支配缺点而导致的软件故障,导致 Knight Capital 丢失 4.4 亿美元。该问题导致大量意外订单在几分钟内发送到市场。
同样,2013年,纳斯达克市场因软件故障而经历了重大中断,导致交易冻结了3个小时。
这些事宜表明,在交易环境中,强大而可靠的技能至关主要,也显示了过度依赖技能的风险。
(本文图片来自公开网络)
(END)
本文系作者个人观点,不代表本站立场,转载请注明出处!