研究职员以海报形式展示了他们的事情成果,以便在 NeurIPS-2023 会议上揭橥。
这是神经信息处理系统的天下论坛,将于12月10日至16日在美国新奥尔良举行。

科学家找到了加速收集人工智能的方法_数据_办法 文字写作

网络人工智能是一种能够处理大量数据并识别个中模式的软件系统。
基于这些技能,他们提出决策建议并为各种问题供应答案。
此类综合体的紧张上风之一是他们能够自学并随着韶光的推移提高技能。
这使他们能够不断改进并变得更加高效。

目前,网络化人工智能已运用于许多行业和公共生活领域。
例如,它们用于社交网络剖析、推举系统、语音识别算法、自动翻译器和许多其他运用。

为了开拓此类复合体,专家利用机器学习算法。
同时,该过程的有效性在很大程度上取决于终极用户设备和处理数据的做事器之间的通信构造如何优化。
无效的沟通会减慢模型的剖析和更新。

“随着数据和模型规模的增加,当今须要更多的并行和分布式打算来办理现实天下的机器学习问题。
与此同时,分布式方法有一个显著的瓶颈——通信本钱,”该研究的合著者、MIPT-Yandex 根本研究实验室卖力人 Alexander Beznosikov 在评论他的科学事情条件时评论道。

他补充说,机器学习是基于变分不等式的。
这是一个包含各种优化问题的数学工具。
许多人在学校就熟习此类任务。
例如,他们找到某个目标函数的最小值。
在机器学习中,有必要办理相同但繁芜得多的问题。

“大多数实际的机器学习问题都可以表示为变分不等式。
同时,在分布式求解变分不等式时,专家们用来减少通信轮数和每轮本钱的紧张方法是压缩条件的方法、利用局部数据相似性的方法和局部数据相似性的方法。
脚步,”亚历山大·别兹诺西科夫说。

他阐明说,第一种方法并不涉及发送完全的信息包,而仅涉及个中的一部分(例如,发送包的随机部分或舍入数字)。
第二个是基于这样的假设:如果打算设备上的数据相似,那么只有它们之间的差异才能被传输以实现成功的通信。
第三种方法通过在与其他节点共享之前更新每个节点上的数据来加速机器学习过程。

该专家指出,从某种意义上说,第二种和第三种方法与第一种方法相反。
在压缩过程中,由于“包裹”的减少,流量也随之减少。
在基于数据相似性和本地步骤的方法中,数据交流的本钱降落,由于通信发生的频率降落。

Alexander Beznosikov 表示,列出的每种方法都有其自身的优点和缺陷。
然而,在研究中,科学家将三种方法合二为一,并得到了强大的协同效应。

“我们方法的实质是,在个中一个设备上(有条件地是主设备、某种做事器)上的数据在某种意义上该当与全体网络中可用的数据相似。
与此同时,在所有其他设备上,数据可能非常异构,”这位科学家阐明道。

据他先容,这种方法的履行使得网络通信速率比基本算法快十倍,比最前辈算法快约两倍。
其余,该算法的好处是大部分打算操作都发生在做事器上。
与此同时,用户设备(手机、平板电脑和打算机)保持卸载状态,因此可以安全地实行其直接任务。

这种方法与最有出息的机器学习技能之一——联邦学习干系。
该技能意味着数据保留在用户的设备上,并且通过聚合来自不同设备的演习模型在做事器上更新模型。

亚历山大·别兹诺西科夫强调,在研究过程中,新方法在大略的实验任务上进行了测试。
未来,科学家打算在更繁芜的软件系统上对其进行测试。
包括措辞模型——用于根据之前的单词和短语预测下一个单词和短语的人工智能系统。