最近,# 廣州地鐵 # 登上熱搜
起因竟是一女子在地鐵上的裸體照片被瘋傳
事實上,這張裸體照并非真實照片
而是被 AI 技術一鍵脫衣生成的 ……
據泾渭視頻報道:近日,廣東廣州,一女子在地鐵上的照片被 AI 一鍵脫衣,造謠圖在網絡廣泛傳播引發關注。
事實上,照片的女主角是小紅書的一名博主,而所謂的 " 裸照 " 則是她去年 7 月在平台分享的一張照片。原圖中她衣着正常,完全沒有任何不妥之處,但卻被有心之人用 AI 軟件一鍵脫衣,故意全網散播。
目前博主已在評論區回複各位網友,稱會進行相關的維權處理。
值得欣慰的是,在這則圖文分享的評論區,已經有衆多網友評論提醒博主被造謠的事實,催促其盡快報警,也有人熱心地幫助其辟謠澄清。
死灰複燃的 AI 脫衣,僞造謠言百口莫辯
早在 2019 年,國外程序員就開發出了 DeepNude 這款使用 AI 技術 " 脫衣 " 的應用,通過使用類似 deepfakes 的深度學習技術,DeepNude 使用女性裸照訓練之後可将圖像中女性身上的衣服替換掉,創造出幾可亂真的合成裸照,也就是大家所說的 " 一鍵脫衣 "。
後因廣泛的輿論争議,開發團隊選擇将該項目關閉。
但記者發現在百度網站搜索 "AI 脫衣軟件 " 仍然會出現衆多 " 替代品 "。
點開其中一個 AI 脫衣軟件,甚至在産品說明頁中有着詳細的說明和 " 優勢 "" 亮點 "
有博主發視頻稱,在現今 AI 強大的算法下,時間、地點都對得上的情況下,僞造謠言對普通人來說百口莫辯。而唾手可得的脫衣軟件則更讓造謠者有機可乘。
AI 換臉換裝,或涉嫌刑事犯罪
近年來,"AI 換臉 " 走紅,一些 "AI 換臉 " 的 App 使用明星的圖片制作換臉視頻進行推廣,其趣味性背後暗藏不少法律風險和侵權糾紛。
明星劉昊然就曾在 2021 年 8 月 26 日發博打假,控訴網上流傳的某淫穢視頻爲 AI 換臉技術僞造,并向警方報案。
專家表示,在《網絡安全法》第二十七條的規定當中,特别強調,明知他人實施危害網絡安全活動的,不能夠爲他提供技術支持,如果情節嚴重,還會構成幫助信息網絡犯罪活動罪等刑事犯罪。
來源 | 新聞晨報綜合泾渭視頻、央視網、網友評論