5月29日,新加坡国立大学与香港中文大学的研究团队宣布,他们成功开发了一款名为MinD-Video的人工智能系统,该系统能从大脑信号中重构高质量视频。这一突破性成果基于公开可用的fMRI读数与AI图像生成器Stable Diffusion的强化模型联合训练而成。
研究团队表示,他们的模型能够仅凭大脑读数生成高质量的人工智能重建视频,平均准确率高达85%。这一进展在前人利用人工智能技术通过分析脑电波重建图像的基础上进一步推进。
MinD-Video的独特之处在于其将大脑信号转化为动态视频,比如将描述一群人在繁忙街道行走的视频转换为同样拥挤但视觉效果更加生动的场景。然而,该技术尚存局限性,例如,原本描绘水母的视频被错误解读为鱼类游动的画面,而海龟视频则被解码为鱼类的镜头。
研究者认为,这些人工智能模型不仅展示了技术潜力,也提供了对神经系统运作的洞察,特别是揭示了视觉皮层在形成视觉感知中的关键作用。
尽管这项研究展现了令人瞩目的进展,但实现佩戴头盔接收完全精准的人工智能生成视频流的目标仍需时日。目前,这仍处于科学探索的前沿阶段。
相关报道来源:站长之家。