鸭王2未删减版完整版在线观看|亚洲福利免费|理论视频在线观看|东莞性视频xxxhd,国产精品久久99精品毛片三a,久久午夜精品,济公电影国语版在线观看完整版

首頁 > 產業(yè)市場 > 即時新聞

投身家庭保潔 具身智能邁向家庭終極考場

2026-04-27 07:32 來源:經濟參考報
查看余下全文
首頁 > 產業(yè)市場 > 即時新聞

投身家庭保潔 具身智能邁向家庭終極考場

2026年04月27日 07:32 來源:經濟參考報 □記者 吳蔚 張漫子
[字號 ]

當58到家的保潔阿姨按下門鈴時,她的身邊多了一位新“同事”:一臺由具身智能企業(yè)自變量研發(fā)的機器人。隨著房門打開,全球首個機器人保潔員“上崗”入戶,與保潔阿姨協(xié)同作業(yè)完成家庭保潔。

記者了解到,目前機器人保潔員已先后在深圳、北京等地累計服務近百個家庭。這也意味著機器人從實驗室和工業(yè)場景來到了更為復雜的家庭場景,為攻克具身智能應用“最后一公里”邁出了真實一步。

“實習保潔員”的一小步

機器人的一大步

深圳市民陳果(化名)是呼叫機器人保潔員上門服務的首批體驗者:她通過58同城App預約了國產機器人上門的智能保潔服務?!按_實很新奇,一開始還有點擔心機器人做家務活會做不好?!?/p>

在3小時的服務中,陳果觀察到,機器人不僅能在客廳和廚房間順暢行走,還能負責清理垃圾、收拾桌面、清潔收納等任務?!斑@臺機器人干活還挺穩(wěn),人機配合很高效,比預期中好得多?!?/p>

在家庭服務場景中,人機協(xié)作分工明確:保潔阿姨主要承擔與客戶溝通、現場判斷以及更復雜的深度保潔工作,機器人作為得力助手,主要負責客廳區(qū)域的收納和基礎清潔。

作為“實習保潔員”進家入戶,對機器人來說已是顯著的進步。因為家庭是一類具有極高復雜性、非標準化特征的開放場景,被認為是檢驗通用機器人技能的“終極考場”。智元機器人合伙人、高級副總裁王闖認為,普通百姓可能期待機器人直接進入家庭干活,但家庭場景實際上落地難度最高,需解決安全性、成本、復雜任務泛化性、作業(yè)成功率及避免破壞物品等諸多難題。

正因如此,為使機器人在家庭場景中更穩(wěn)定地干好精細活,需要更優(yōu)的預訓練,這對機器人的“大腦”——模型能力提出了更高要求。一位參與技術研發(fā)的工程師打了個比方:工業(yè)機器人像循規(guī)蹈矩的實習生,每一步都按手冊操作;而家庭機器人需要像一個有常識的成年人,即使遇到沒見過的情形也能隨機應變。

應用于家庭場景的機器人,一直是具身智能領域公認的“最后一公里”。36氪研究院發(fā)布的《2026年具身智能產業(yè)發(fā)展研究報告》提出,人形機器人產業(yè)發(fā)展的核心突破口在于機器人大腦的“演進”。宇樹科技創(chuàng)始人王興興也不止一次公開表達過,機器人當下及未來最關鍵的挑戰(zhàn)在于大模型,足見具身智能模型能力提升的急迫。如果說硬件決定了機器人能不能動,那么大模型決定了它能不能“聰明”地動——而這恰恰是目前全球業(yè)界共同的瓶頸。

大腦進化關鍵在于處理“未見場景”

用于家庭場景的機器人應當擁有怎樣的大腦?

“真正的智能機器人難點不在于單一動作的重復,而在于能不能在隨機環(huán)境下做出全新的沒有被訓練過的動作。這要求基礎模型必須具備高度的泛化性、準確性,能應對足夠復雜的任務。”自變量機器人CEO王潛介紹,為此自變量研發(fā)了具身智能基礎模型Wall-B。

縱觀全球多數具身智能企業(yè),VLA(視覺-語言-行動)架構是當前具身智能領域的主流方案,其結構清晰:視覺模塊負責“看”,語言模塊負責“理解”,動作模塊負責“做”。三個模塊各司其職,數據依次傳遞。然而這一架構具有天然缺陷:數據在模塊之間每傳遞一次,就會發(fā)生一次信息損耗和延遲。視覺模塊“看到”的豐富空間信息,傳到動作模塊時,往往只剩一個模糊的摘要。而且VLA只能“模仿”訓練數據中的軌跡,并不理解杯子為什么會掉,也不理解為什么盤子懸在桌邊需要推回去。

王潛說,Wall-B不是一個只會背標準答案的大腦?!八ㄈ矫婺芰Γ阂粋€是以感知和理解,代替死記硬背標準答案的動作模仿。第二種能力是舉一反三,不是每一個動作或場景都需要歷史數據或‘老師’教。第三是實時調整的能力,做錯動作之后可以馬上調整正確,以高效完成任務?!?/p>

具體而言,Wall-B將視覺、語言、動作、預測四方面的能力統(tǒng)一放在同一個架構里進行訓練。這意味著模型不再是“看了再想、想了再做”的串聯(lián)模式,而是能同時處理多種信息流。因此模型能夠對物理世界的重力、慣性、摩擦等規(guī)律有更精確的認知和感受——比如它知道一個空紙杯比一個裝滿水的杯子更容易被碰倒,也知道光滑的地板上剎車需要更長的距離。這種對物理常識的內化,使得模型對數據的處理更加高效準確,而且能夠應對從沒見過的場景。

例如,在一次真實家庭服務中,機器人第一次遇到一個底部帶有吸盤的杯墊。它沒有經過專門訓練,但通過視覺識別和物理推理,意識到需要稍微用力才能拿起杯子。這種“現場推理”能力,正是Wall-B區(qū)別于傳統(tǒng)VLA模型的關鍵所在。

拿得掉遙控器

還要離得開人

今年以來,具身智能邁入應用快車道。2026年政府工作報告中,具身智能被明確列為需要培育壯大的未來產業(yè)之一。同期,工業(yè)和信息化部正式發(fā)布的《人形機器人與具身智能標準體系(2026版)》,為行業(yè)規(guī)范化、規(guī)?;l(fā)展提供了頂層設計。

記者注意到,目前不論工業(yè)機器人還是用于商業(yè)場景的機器人,大部分依然依賴于遙操作,或者需要人的現場“指揮”。這意味著機器人的功能還停留在被動執(zhí)行而非主動行動層面。拿得掉遙控器,機器人才能真正獨立;離得開人,它才算擁有了自己的“大腦”。

除大腦不夠智能之外,數據也是相當關鍵的制約因素。再好的算法模型,如果沒有海量、高質量、貼近真實場景的數據去訓練,都會淪為“紙上談兵”。

因此,讓人形機器人進入實戰(zhàn)場以提升數據質量,已成為業(yè)內共識。王興興在2026人形機器人與具身智能標準化年會上說,通過模仿學習采集真人數據,機器人才有望掌握人類的各類動作。中國科學院自動化研究所研究員趙曉光稱,實訓場就像機器人上崗前的“實訓課堂”,通過由簡到繁的系統(tǒng)訓練,讓機器人掌握解決實際問題的能力。

然而,目前行業(yè)大多數訓練模型的數據來自實驗室:固定光照、固定物體位置、無干擾環(huán)境。但這一環(huán)境與真實世界有著顯著差距,尤其與家庭中隨時變化的自然光、隨意擺放的物品、孩子和寵物的隨機動作截然不同。在實驗室里表現優(yōu)異的模型,一旦面對真實家庭的“混亂”,準確率可能從90%驟降到60%以下。

機器人保潔員每次完成任務后,都會將脫敏后的感知數據和操作數據回傳至訓練平臺。這些來自真實場景的“一手經驗”,成為模型迭代最寶貴的養(yǎng)料?!坝柧毜臄祿▋蓚€部分,我們用實驗室的數據去幫助它建立基本能力,用真實場景的數據讓模型學會真正的生存?!蓖鯘撜f。

接下來,搭載Wall-B的新一代具身智能機器人將更大批量進入多個城市的家庭場景,并加快訓練、增強能力,使機器人盡快成為人類的家庭成員與好幫手??梢灶A見,在不遠的將來,當我們聽到門鈴開門,迎接一位機器人保潔員進門服務,或許會像今天看到掃地機器人一樣習以為常。

(責任編輯:劉芃)