据悉,研究职员通过植入物和人工智能解码来自大脑的旗子暗记,能够预测用户想说的话,准确率高达92%至100%。
这一技能的实现,不仅须要丈量大脑活动时大声说出一些单词,还须要建立大脑活动和语音之间的直接映射关系。
随后,利用前辈的人工智能模型将大脑活动直接转化为听得见的语音。
这意味着他们不仅能预测用户在说什么,而且还可立即将这些单词转化为可理解的声音。
重修后的语音,在语调和说话办法上乃至听起来像瘫痪人士发出来的。

AI再显神通!将大年夜脑旗子暗记转为语音 准确率最高达100%_单词_年夜脑 绘影字幕

在最新研究中,研究职员对志愿者进行了听力测试,以评估合成单词的可识别性。
结果表明,这项技能不仅精确识别出了单词,准确率高达92%到100%,还让这些单词像真实的声音一样被听得见和理解。

然而,只管这项技能取得了显著的进展,但研究职员强调,最新技能仍有一些局限性。
他们的目标是仅根据人们的大脑活动来预测他们想说的完全句子和段落。
要做到这一点,还须要开展更多实验,研制出更前辈的植入物,采集更大的数据集,创建更前辈的人工智能模型。

无论如何,这项研究的成功为瘫痪且无法沟通的患者带来了新的希望,也为神经工程领域的发展开辟了新的道路。
我们期待未来能有更多类似的打破,为那些因疾病或侵害而失落去措辞能力的人们带来福音。