当前的位置: 首页 > 文章列表 > 手机平板 > 英伟达阿里等联合打造智能座舱助理 实现语音手势操控与自主决策

— 英伟达阿里等联合打造智能座舱助理 实现语音手势操控与自主决策 —

更新时间:2024-09-22 13:15:02 编辑:丁丁小编

【太平洋科技快讯】2024年杭州云栖大会上,NVIDIA DRIVE Orin系统级芯片与阿里云通义千问多模态大模型Qwen2-VL成功实现深度适配。并且阿里云、斑马智行联合NVIDIA英伟达共同推出了舱驾融合大模型解决方案,该方案基于通义大模型,致力于打造“能听会看”的智能座舱助理。用户仅需通过语音交流,即可操控座舱内各类应用,享受极致交互体验。

通义大模型由阿里通义实验室研发,Qwen2-VL在图片识别和视觉智能方面表现卓越,其2B和7B参数模型以“极致性价比”著称,非常适合汽车端侧场景。

通义实验室最新发布的Mobile Agent V3在汽车座舱场景中首次落地,提供了屏幕感知、复杂任务规划以及座舱应用UI操作决策能力,进一步扩展了智能助理的功能边界。

此外,通义大模型为座舱配备的智能助理具备感知、思考、决策能力。不仅能理解用户的语音和手势,还能根据环境信息和常识进行自主决策,极大提升了驾驶便捷性和安全性。

基于端云一体架构,NVIDIA DRIVE Orin芯片加速了端侧通义大模型的运行。NVIDIA英伟达通过优化GPU架构和驱动软件,确保了大模型性能潜力得到充分发挥,同时降低了计算成本和时间延迟。

通义大模型将采用NVIDIA DRIVE Thor新一代集中式车载计算平台,预示着智能座舱技术将迈向更高水平,将为用户带来更加智能、便捷的驾驶体验。

本文转载于:https://www.sohu.com/a/810627328_223764 如有侵犯,请联系dddazheyh@163.com删除

热门优惠券

更多