- 发布日期:2026-02-13 08:34 点击次数:192
🤖 由 文心大模型 生成的文章摘要
成都研发的人形机器人“爱湫”凭借面部精细控制技术

近日,在成都市两会会场及相关科技展示活动中,一款名为“爱湫”的“成都造”情感交互人形机器人正式亮相,凭借面部59个骨骼点的精细控制技术、自主研发的“情感—语言—动作”(ELA)核心模型,打破传统人形机器人的机械交互壁垒,实现自然流畅的情感共鸣,未来将广泛落地政务服务、康养陪伴、文旅导览等多元场景,成为成都人工智能与机器人产业高质量发展的又一标志性成果。
与传统功能型人形机器人不同,“爱湫”的核心突破的是“情感交互”能力,其最直观的体现便是那张“有生命力”的脸庞。研发团队创新采用3D超短焦投影技术,对机器人面部59个骨骼点(自由度)实现精细化管控,彻底摆脱了传统机械面孔的僵硬感,能够灵活呈现眼神流转、嘴角微扬、蹙眉沉思等细腻微表情,甚至可模拟人类情绪波动时的面部神态变化,让人机交互从“指令响应”升级为“情感对话”。现场体验中,当观众表达喜悦时,“爱湫”会眉眼弯弯、语气轻快地给予回应;当提及低落情绪时,它则会微微低头、放缓语速,用温和的语气给予安慰,细腻的情感反馈赢得了现场一致好评。
这份“共情能力”的背后,离不开“爱湫”搭载的行业首创ELA(情感—语言—动作)核心模型。该模型由四川具身人形机器人科技有限公司联合天府绛溪实验室研发,是全球首个将情感、语言与肢体动作进行端到端映射的大模型,构建起“多模态情绪感知—情绪建模决策—智能协同回应”的完整交互闭环。通过融合激光雷达、3D视觉等多模态感知技术,“爱湫”能实时采集交互对象的语音语调、面部表情等多维信号,精准识别超过15种人类情感,情绪识别准确率高达85%以上,进而同步生成匹配的语言内容与肢体动作,实现“视、听、动、情”的高度协同。
为了让“情感交互”更具实用性,“爱湫”在语音交互层面也实现了重大突破。依托腾讯云提供的技术支持,它搭载了360度全向环形麦阵,配合高精度声源定位、定向拾音及智能降噪算法,即便在两会会场、商场、景区等嘈杂环境中,也能清晰捕捉对话内容,且在3至5米的中远距离内可实现高准确率语音识别。更值得一提的是,其搭载的高精度声纹识别技术,能精准区分不同用户身份,实现“闻声识人”与个性化记忆,为差异化交互需求提供了有力支撑。
在外观设计上,“爱湫”也极具特色,摒弃了工业机械风,以西南地区特有珍稀物种“汶川龙蜥”为灵感,采用流线型仿生设计,融合未来科技感与东方生物美学,整体造型软萌灵动,兼具亲和力与辨识度。同时,它采用极致轻量化设计,单臂结构件重量仅300g,在保障机械强度的同时降低了系统惯量,大幅提升了动作的敏捷性,可灵活完成摆臂、转腰、舞蹈等动作,在成都市两会现场,它便伴着欢快旋律跳舞,呆萌形象圈粉无数。
