OpenAI正优化其音频人工智能模型,为计划中的语音驱动型个人设备做准备。
1月1日,据The Information报道,OpenAI过去两个月内整合工程、产品和研究力量,集中攻克音频交互的技术瓶颈,目标打造一款可通过自然语音指令操作的消费级设备。
公司内部研究人员认为,当前ChatGPT的语音模型在准确性和响应速度上均落后于文本模型,且两者使用的底层架构并不相同。
据报道,新语音模型将具备更自然的情感表达能力和实时对话功能,包括处理对话打断的能力,这是现有模型无法实现的关键特性,计划2026年第一季度发布。
从Meta为Ray-Ban智能眼镜配备五麦克风阵列增强听力,到特斯拉将xAI的聊天机器人Grok集成到车辆中实现语音控制导航和气候系统,再到OpenAI优化其音频人工智能模型,科技巨头们正集体押注音频未来。
OpenAI团队整合聚焦无屏交互方式
据报道,OpenAI当前的语音模型与文本模型分属不同架构,导致用户通过语音与ChatGPT对话时,获得的回答质量和速度均逊于文本模型。
为解决这一问题,OpenAI在过去两个月内完成了关键团队整合。
在组织层面,今夏从Character.AI加入的语音研究员Kundan Kumar担任音频AI项目核心负责人。
产品研究主管Ben Newhouse正在重构音频AI基础设施,多模态ChatGPT产品经理Jackie Shannon也参与其中。
在硬件形态上,OpenAI与谷歌、亚马逊、Meta 和苹果的判断相似:现有主流设备并不适合未来AI交互。
OpenAI 团队希望用户通过“说话”而非“看屏幕”与设备互动,认为语音才是最贴近人类交流本能的方式。不过目前多数ChatGPT用户尚未养成语音交互习惯,原因包括音频模型质量不足或用户未意识到该功能存在。
此外,与OpenAI合作硬件开发的前苹果设计主管乔尼·艾夫强调,无屏幕设计不仅更自然,还有助于避免用户沉迷。他在5月采访中表示:
即使初衷无害,若产品产生不良后果,也需承担责任。这种责任感驱动着我当前的工作。
报道援引知情人士称,OpenAI还计划推出一系列无屏设备,包括智能眼镜和智能音箱,将设备定位为用户的"协作伴侣"而非单纯的应用入口。
此前报道显示,OpenAI已在2025年初斥资近65亿美元收购乔尼·艾夫联合创办的io,并同步推进供应链、工业设计与模型研发等多条工作线。首款设备预计至少还需一年时间才能面世。
音频成为新战场
智能音箱已在超过三分之一的美国家庭中普及,为语音助手奠定了基础。如今科技巨头们正将这一交互方式扩展到更多场景。
Meta的Ray-Ban智能眼镜通过五麦克风阵列帮助用户在嘈杂环境中听清对话,实际上将面部变成了定向收听设备。
谷歌从6月开始测试"音频概览"功能,将搜索结果转化为对话式摘要。
特斯拉则在车辆中整合Grok聊天机器人,通过自然对话处理从导航到空调控制的所有功能。
不只是科技巨头在下注。一批初创企业也怀揣同样信念入场,尽管成功程度各异。
Humane AI Pin的制造商在其无屏幕可穿戴设备在烧掉数亿美元后,最终却成了反面教材。Friend AI吊坠声称能记录用户生活并提供陪伴,但引发了同等程度的隐私担忧和存在焦虑。
至少有两家公司,包括Sandbar和由Pebble创始人Eric Migicovsky领导的一家公司,正在开发预计2026年推出的AI戒指,让佩戴者能够"对着手说话"。
尽管目前AI硬件的形态各异,但论点相同:音频是未来的界面。



































