📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
李飛飛「具身智能」新成果!機器人接入大模型直接聽懂人話,0預訓練就能完成複雜指令
來源:量子位
李飛飛團隊具身智能最新成果來了:
大模型接入機器人,把複雜指令轉化成具體行動規劃,無需額外數據和訓練。
可操作的物體也是開放的,不用事先劃定範圍,開瓶子、按開關、拔充電線都能完成。
**機器人如何直接聽懂人話? **
李飛飛團隊將該系統命名為VoxPoser,如下圖所示,它的原理非常簡單。
接著,LLM(大語言模型)根據這些內容編寫代碼,所生成代碼與VLM(視覺語言模型)進行交互,指導系統生成相應的操作指示地圖,即3D Value Map。
而從這個過程我們可以看到,相比傳統方法需要進行額外的預訓練,這個方法用大模型指導機器人如何與環境進行交互,所以直接解決了機器人訓練數據稀缺的問題。
更進一步,正是由於這個特點,它也實現了零樣本能力,只要掌握了以上基本流程,就能hold任何給定任務。
在具體實現中,作者將VoxPoser的思路轉化為一個優化問題,即下面這樣一個複雜的公式:
VoxPoser要實現的就是優化每一個子任務,獲得一系列機器人軌跡,最終最小化總的工作量和工作時間。
而在用LLM和VLM將語言指令映射為3D地圖的過程中,系統考慮到語言可以傳達丰富的語義空間,便利用“感興趣的實體(entity of interest)”來引導機器人進行操作,也就是通過3DValue Map中標記的值來反應哪個物體是對它具有“吸引力”的,那些物體是具有“排斥性”。
當然,這些值如何生成,就靠大語言模型的理解能力了。
而在最後的軌跡合成過程中,由於語言模型的輸出在整個任務中保持不變,所以我們可以通過緩存其輸出,並使用閉環視覺反饋重新評估生成的代碼,從而在遇到干擾時快速進行重新規劃。
因此,VoxPoser有著很強的抗干擾能力。
以下分別是VoxPoser在真實和模擬環境中的表現(衡量指標為平均成功率):
最後,作者還驚喜地發現,VoxPoser產生了4個“湧現能力”:
(1)評估物理特性,比如給定兩個質量未知的方塊,讓機器人使用工具進行物理實驗,確定哪個塊更重;
(2)行為常識推理,比如在擺餐具的任務中,告訴機器人“我是左撇子”,它就能通過上下文理解其含義;
(3)細粒度校正,比如執行“給茶壺蓋上蓋子”這種精度要求較高的任務時,我們可以向機器人發出“你偏離了1厘米”等精確指令來校正它的操作;
(4)基於視覺的多步操作,比如叫機器人將抽屜精準地打開成一半,由於沒有對像模型導致的信息不足可能讓機器人無法執行這樣的任務,但VoxPoser可以根據視覺反饋提出多步操作策略,即首先完全打開抽屜同時記錄手柄位移,然後將其推回至中點就可以滿足要求了。
李飛飛:計算機視覺的3顆北極星
大約一年前,李飛飛在美國文理學會會刊上撰文,指出計算機視覺發展的三個方向:
正如ImageNet旨在表示廣泛且多樣化的現實世界圖像一樣,具身智能研究也需要解決複雜多樣的人類任務,從疊衣服到探索新城市。
遵循指令執行這些任務需要視覺,但需要的不僅僅是視覺,也需要視覺推理理解場景中的三維關係。
最後機器還要做到理解場景中的人,包括人類意圖和社會關係。比如看到一個人打開冰箱能判斷出他餓了,或者看到一個小孩坐在大人腿上能判斷出他們是親子關係。
機器人結合大模型可能正是解決這些問題的一個途徑。