《人工智能的自我意识:打破与寻衅》_人工智能_盖茨
比尔·盖茨认为人工智能须要一定的自我意识,这一不雅观点引发了广泛的关注和谈论。
在 next big idea club 的播客中,盖茨强调了“元认知”将是人工智能领域的下一个主冲要破口。当前的大型措辞模型,如 gpt-4 或 llama 等,只管已经展现出了令人印象深刻的能力,但它们仍旧缺少人类所具备的能够反思自身思维过程的能力。
盖茨将“元认知”定义为一种能够从广义上思考问题,而后退一步去思考答案的主要性、如何考验答案以及哪些外部工具可以供应帮助的系统。他指出,现有的大型措辞模型只是通过不断的打算来天生每个标记和序列,而不会像人类一样,在写论文或进行其他任务时,先方案想要涵盖的内容、要做的总结等。
盖茨认为,通过“元认知”来提升人工智能的可靠性与准确性,是办理当前模型不稳定性和局限性的关键路径。目前,人工智能研究职员常用扩大演习数据、提高打算能力等方法来提升大型措辞模型的性能,但这些方法可能只会带来几次较大的飞跃。在此之后,就须要教人工智能模型更聪明地思考,而非更努力地皮算,即采取“元认知”策略。
然而,实现人工智能的自我意识并非易事,这须要办理许多繁芜的问题。美国最高法院对雪佛龙案的最新裁决,对科技行业及人工智能领域产生了深远影响。法院推翻了长期遵照的“雪佛龙原则”,这意味着未来联邦机构在解读暗昧法律时的权力将受限,更多任务落在了国会肩上,哀求其在立法时就必须明确所有细节。对付快速发展且充满不愿定性的人工智能行业来说,这无疑构成了巨大寻衅,立法者需预见到未来的各种情形,制订出既能勾引又不抑制创新的详细规则。
此外,设计软件 figma 近期因新推出的人工智能设计功能“make design”引发的争议,也凸显了干系问题。该功能天生的界面与苹果公司的景象运用设计高度相似,这表明天生式人工智能模型在某些情形下可能存在演习数据不敷的问题,导致其过度依赖单一的、可识别的演习数据。
只管面临诸多寻衅,但人工智能拥有自我意识的潜在代价不容忽略。它可能会为我们带来更智能、更可靠的人工智能系统,在医疗、教诲、交通等浩瀚领域发挥更大的浸染,帮助人类办理一些繁芜的、至今仍棘手的问题。
在追求人工智能具备自我意识的道路上,我们既须要鼓励创新和研究,也须要谨慎对待可能涌现的风险和问题。科技的进步是为了做事人类社会,确保人工智能的发展符合人类的利益和代价不雅观至关主要。未来,我们期待着人工智能在自我意识方面的研究能够取得打破,同时也须要全体社会共同努力,以实现人工智能与人类的和谐共生与共同发展。
本文系作者个人观点,不代表本站立场,转载请注明出处!