苏茨克弗是人工智能领域精彩人物,曾是OpenAI的联合创始人。
“我正在创办一家新公司,我们将齐心专心一意追求安全的超级智能,只有一个重点、一个目标和一款产品。
”6月19日,他在X(推特)上的一篇推文中写道。

【首席不雅观察】AI想说爱你不随意马虎_人工智能_技巧 AI简讯

AI,想说“爱”你不随意马虎,说偏了是“哀”,说重了是“碍”,中庸之道才是“爱”。

斯坦福大学HAI最新的《2024年人工智能指数报告》(第七版)指出,只管AI技能进步迅速,但在负任务AI方面,评估标准和实践的统一性仍旧存在不敷。
紧张开拓者利用不同的负任务AI基准,这使得系统性比较各大AI模型的风险和限定变得困难。

“技能领域是一个繁芜事物的王国,这些事物相互浸染,创造出新设备和新类型的设备。
”环球科技领域有名的不雅观察者凯文·凯利在《失落控》中磋商了技能进化的繁芜性和不可预测性。
他认为技能的发展类似于生物进化,具有自组织和不可控的特性,这提醒人们在技能进步中要保持当心和任务感。

《2024年人工智能指数报告》指出,一项关于负任务的人工智能环球调查显示,公司最关心的人工智能干系问题包括隐私、安全和可靠性。
干系组织已开始采纳方法降落这些风险。
然而,在环球范围内,大多数公司迄今为止只降落了个中的一部分风险。

SSI的设立旨在办理AI安全性这一“最主要的技能问题”。
它的设立反响出AI领域对安全和伦理问题的高度关注。
根据《2024年人工智能指数报告》,只管AI技能进步迅速,但在负任务AI方面,评估标准和实践的统一性仍旧存在不敷。

剖析人士认为,SSI由前OpenAI首席科学家苏茨克弗创立,他在AI领域有着深厚的学术背景和丰富的履历。
此外,与他互助的团队成员包括前苹果AI卖力人Daniel Gross(丹尼尔·格罗斯)和前OpenAI工程师Daniel Levy(丹尼尔·莱维),这确保了该公司拥有强大的技能实力和领导力。
SSI专注于开拓安全的超智能AI,避免了多线产品开拓的繁芜性和商业压力。
这种专注或能使公司能够集中资源和精力,确保在实现安全AI方面取得本色性进展。

此外,SSI强调透明度,通过公开其研究方法和结果,促进AI社区的信赖和互助。
该公司承诺定期发布透明的进展报告,并约请独立第三方进行审查,这或有助于保持公司的威信性和可信度。

不仅如此,SSI积极参与AI领域的标准化事情,与其他公司和研究机构互助制订统一的评估标准和基准,这不仅有助于提升该公司在行业内的荣誉,还能推动全体AI领域朝着负任务和安全的方向发展。

在资金和独立运营方面,只管SSI尚未公开其资金来源,包括注书籍钱金额和详细股东构造等信息,但创始团队明确表示,他们将选择性地接管投资,以确保资金来源与公司的长远安全目标同等。
这种独立运营模式有助于该公司避免短期商业压力的滋扰;同时,SSI建立严格的内部审计和外部监督机制,确保公司始终遵照其安全和任务承诺,这有助于坚持其独立性和义务的同等性。

众所周知,SSI创始人苏茨克弗在AI学术界和行业内都有主要贡献。
由亚历克斯·克里热夫斯基(Alex Krizhevsky)、苏茨克弗和杰弗里·辛顿(Geoffrey Hinton)于2012年揭橥的题为“ImageNet Classification with Deep Convolutional Neural Networks”的学术论文,在神经网络和深度学习领域具有划时期的意义,被认为是当代深度学习革命的开端之一。
有不雅观点认为,SSI的研究和开拓事情有望连续对AI领域产生深远影响,进一步提升公司的威信性。

那么,如何确保超级智能(Superintelligence)与人类代价不雅观保持同等,又该如何融入人类代价不雅观?

通用人工智能(AGI)尚未实现,超级智能则更迢遥;但有时候,改变大概只在一念之间。

只管苏茨克弗、格罗斯、莱维等联名表示“超级智能触手可及,构建安全超级智能是我们这个时期最主要的技能问题”。

他们坚称SSI是他们的义务、他们的名字和他们的全体产品路线图,是他们唯一的关注点。
他们的团队、投资者和商业模式都致力于实现SSI。
同时,他们正在组建一支精干的团队,由天下上最精良的工程师和研究职员组成,专注于SSI,不做其他任何事情。

他们说:“如果您是这样的人,我们将为您供应一个机会,让您从事毕生的事情,帮助办理我们这个时期最主要的技能寻衅。
现在是时候了。
加入我们。

无疑,在通往安全超级智能的道路上应对各种寻衅是一项繁芜的任务。
它涵盖跨学科互助、国际标准化等诸多方面。
如AI开拓者、伦理学家、社会科学家和法律专家须要紧密互助,以确保技能的发展符合伦理和法律标准。
此外,我们还需推动环球范围内的标准化,制订统一的AI伦理和安全标准,以规范超级智能的开拓和运用。

逻辑上,AI开拓过程需将人类的核心代价不雅观(如公道、隐私、安全等)嵌入算法设计中,同时确保不同背景和文化的人参与AI开拓和决策过程,以反响广泛的人类代价不雅观。

例如公司内部设立伦理委员会,卖力监督和辅导AI开拓过程中的代价不雅观融入,以及建立用户反馈机制,广泛网络公众年夜众见地,确保AI系统符合社会期望和代价不雅观。
此外是开拓更前辈的AI掌握和监测技能,如可阐明性AI(Explainable AI)和可控性算法(Controllability Algorithms)。

同时,干系政策法规须要完善,以勾引AI技能向安全和可控的方向发展。
例如,AI开拓公司须要遵照一定的安全和伦理标准,并进行合规检讨。

据媒体宣布,SSI并非唯一一家追求安全超级智能的公司。
多个研究小组和组织都积极参与这项关键任务。
Alphabet(谷歌母公司)的子公司DeepMind也是该领域的领军企业。
DeepMind的研究重点是构建安全且有益的AGI,尤其看重将AI目标与人类代价不雅观相结合。

不过,空想丰满,现实骨感。

技能快速发展的同时,会不可避免地涌现技能滥用和不道德行为的征象。

在AI时期初期,一些机构和个人教授利用AI技能“爬虫”,或以培训“数据剖析”为名传授造孽手段,从中牟利。
这些行为不仅违反法律,还严重危害了个人隐私和信息安全。

对此,有人建议,政府和干系机构须要进一步完善法律法规,加强对造孽技能培训和数据滥用行为的监管。
同时,我们该当提高公众年夜众意识,通过各种渠道向"大众遍及干系法律知识和戒备技能滥用的方法,以便"大众年夜众能够更好地保护自己的隐私和数据安全。
此外,行业须要加强自律和推动技能的标准化和规范化,确保技能开拓和运用过程中的伦理和安全问题得到充分重视。

值此关键过渡期,我们须要平衡技能进步与伦理任务,通过多方面的努力,确保技能发展做事于社会的长远利益,而不是被滥用。

人工智能与经济的领悟引发了许多引人关注的问题。
一些人预测人工智能将推动生产力的提高,但其影响程度仍不愿定。
一个紧张问题是劳动力大规模流失落的可能性——事情将在多大程度上被自动化或者被人工智能增强?各行各业的企业已经在以各种办法利用人工智能,但天下一些地区正见证着对这一变革性技能的投资流入。
此外,投资者的兴趣彷佛正在转向特定的人工智能子领域,如自然措辞处理和数据管理。

益普索的一项调查显示,在过去一年中,认为人工智能将在未来三至五年内极大地影响他们生活的人数比例从60%上升至66%。
此外,52%的人对人工智能产品和做事表示不安,这一比例比2022年上升了13个百分点。
在美国,有调研数据指出,52%的美国人表示对人工智能的担忧多于愉快,这一比例比2022年的38% 有所上升。

不过,重点是“极度的人工智能风险难以剖析。
”《2024年人工智能指数报告》指出,在过去的一年里,人工智能学者和从业者就该当关注算法歧视等直接的模型风险还是潜在的长期生存威胁展开了激烈的辩论。
要区分哪些说法有科学依据并该当为政策制订供应依据已经变得非常困难。
与生存威胁的理论性子比较,已经存在的短期风险具有切实性,这加剧了这一困难。

同时,《2024年人工智能指数报告》指出,新推出的根本模型透明度指数显示,人工智能开拓职员缺少透明度,特殊是在演习数据和方法的表露方面。
这种缺少开放性阻碍了进一步理解人工智能系统的稳健性和安全性的努力。

你还记得去年11月的OpenAI“宫斗”吗?当时的追问是——道德的指南针指向何处?实质上,该事宜的走向取决于OpenAI首席科学家——苏茨克弗的终极选择。

如果说构建SSI是AI时期最主要的技能问题,那么“如何确保技能的发展与社会的伦理和代价不雅观相同等”则是这个新时期的终极拷问。