苹果新研究:大语言模型通过文本描述识别用户动作,或用于Apple Watch
苹果最新研究显示,其利用大语言模型(LLM)分析由小型模型生成的音频与运动数据文本描述,即可准确识别用户活动,如“水流声”或特定动作类型。该“后期多模态传感器融合”技术无需处理原始传感器数据,兼顾隐私与效率,在Ego4D数据集测试中表现优异,未来有望应用于AppleWatch等设备。
评论0
相关快报
相关资讯
请扫码下载网通社客户端
iPhone/iPad客户端
Andriod客户端
手机版 网通社汽车
- 经营许可证:京B-220170585号
- 京ICP备13031706号-2
- 广播电视节目制作许可证06725号
- 京公网安备 11010502058773号
- Copyright© 2012-2026聚众网通(北京)科技有限公司版权所有 未经许可不得转载


咖咖Car
刘帅
卓陆


路人甲


