🎉 Gate xStocks 交易開啓啦,現貨、合約、Alpha齊上線!
📝 在Gate廣場發帖,曬出你的交易體驗或精彩截圖,瓜分$1,000大獎池!
🎁 廣場優質創作者5名,每人獨享$100合約體驗券!
🎉 帖文同步分享到X(推特),瀏覽量前十再得$50獎勵!
參與方式:
1️⃣ 關注 @Gate廣場_Official
2️⃣ 帶 #Gate xStocks 交易体验# ,原創發帖(不少於20字,僅用活動標籤)
3️⃣ 若分享到推特,請將連結提交表單:https://www.gate.com/questionnaire/6854
注:表單可多次提交,發布更多帖文可提升獲獎機會!
📅 7月3日16:00—7月9日24:00(UTC+8)
詳情:https://www.gate.com/announcements/article/45926
每一條體驗,都有機會贏取大獎!快在Gate廣場show出你的操作吧!
Meta 發佈了 audio2photoreal AI 框架,可以通過輸入配音檔生成角色對話場景
Bit News Meta 最近宣佈了一個名為 audio2photoreal 的 AI 框架,它能夠生成一系列逼真的 NPC 角色模型,並藉助現有的畫外音檔自動“對口型同步”和“擺姿勢”角色模型。
官方研報指出,Audio2寫實框架收到配音檔后,會先生成一系列NPC模型,然後利用量化技術和擴散演演演算法生成模型動作,其中量化技術為框架提供動作樣本參考,擴散演演演算法用於提升幀生成的人物動作效果。
對照實驗中有43%的評估者對幀生成的人物對話場景“非常滿意”,因此研究人員認為Audio2逼真框架能夠產生比業內競爭產品“更具活力和表現力”的動作。 據悉,研究團隊現已在 GitHub 上公開了相關代碼和數據集。