OpenAI和谷歌DeepMind员工联名发声警告高级AI带来的巨大风险_员工_人工智能
图源 Pixabay
IT之家把稳到,这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失落控的自主人工智能系统可能导致人类灭绝等。
信中写道,人工智能公司拥有强大的经济利益驱动它们连续推进人工智能研发,同时却对保护方法和风险水平的信息讳莫如深。公开信认为,不能指望这些公司会志愿分享这些信息,因此呼吁内部人士站出来发声。
由于缺少有效确当局监管,这些现任和前任员工成为能够让这些公司对"大众年夜众卖力的少数群体之一。然而,由于严格的保密协议,员工被限定发声,只能向可能并未妥善处理这些问题的公司反响问题。传统的举报人保护方法并不适用,由于此类方法侧重于违法行为,而目前令人担忧的许多风险尚不受监管。
员工们呼吁人工智能公司为戳穿人工智能风险的人士供应可靠的举报人保护方法,详细包括:
不得创建或实行阻挡员工对风险干系问题提出批评的协议;
供应可验证的匿名程序,使员工能够向董事会、监管机构和干系领域的独立组织提出与风险干系的担忧;
支持开放批评的文化,许可员工在保护商业机密的条件下,向"大众、董事会、监管机构等方面提出与技能干系的风险担忧;
在其他程序失落效后,避免对公开分享风险干系机密信息的员工进行报复。
共有 13 名员工签署了这封公开信,个中包括 7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名前谷歌 DeepMind 员工和 1 名现任谷歌 DeepMind 员工。据悉,OpenAI 曾因员工发声而威胁取消其既得权柄,并哀求员工签署严格的保密协议限定他们批评公司。
本文系作者个人观点,不代表本站立场,转载请注明出处!