📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
麻省理工推出PhotoGuard 技術,可保護圖像免受惡意AI 編輯
撰文:Andrew Tarantola
來源:Engadget
Dall-E 和Stable Diffusion 只是開始。隨著人工智能生成系統的普及,以及各公司努力將自己的產品與競爭對手的產品區分開來,互聯網上的聊天機器人正在獲得編輯和創建圖片的能力,Shutterstock 和Adobe 等公司就是其中的佼佼者。但是,這些新的AI 功能也帶來了我們熟悉的問題,比如未經授權篡改或直接盜用現有的在線作品和圖片。水印技術可以幫助減少後者問題,而麻省理工學院CSAIL 開發的新型“PhotoGuard”技術則可以幫助我們防止前者的出現。
據悉,PhotoGuard 的工作原理是改變圖像中的部分像素,從而破壞AI 理解圖像內容的能力。研究團隊所說的這些“擾動”,人眼是看不見的,但機器很容易讀懂。引入這些偽影的“編碼”攻擊方法針對的是算法模型對目標圖像的潛在表示-- 描述圖像中每個像素的位置和顏色的複雜數學-- 從根本上阻止了人工智能理解它正在看什麼。 (注:偽影(Artifacts) 是指原本被掃描物體並不存在而在圖像上卻出現的各種形態的影像。)
“編碼器攻擊會讓模型認為(要編輯的)輸入圖像是其他圖像(如灰度圖像),”麻省理工學院博士生、論文第一作者Hadi Salman 告訴Engadget。 “而擴散攻擊則迫使擴散模型對一些目標圖像(也可以是一些灰色或隨機圖像)進行編輯。”這種技術並非萬無一失,惡意行為者可能會通過添加數字噪音、裁剪或翻轉圖片等方式,對受保護的圖像進行逆向工程。
“涉及模型開發人員、社交媒體平台和政策制定者的協作方法可以有效防禦未經授權的圖像操縱。解決這一緊迫問題在今天至關重要。”Salman 在一份新聞稿中表示。 “雖然我很高興能夠為這一解決方案做出貢獻,但要使這一保護措施切實可行,還有很多工作要做。開發這些模型的公司需要投入資金,針對這些AI 工具可能帶來的威脅進行強大的免疫工程設計。”