最近
# 廣州地鐵 # 登上熱搜
起因竟是一女子在地鐵上的裸體照片被瘋傳
事實上,這張裸體照并非真實照片
而是被 AI 技術一鍵脫衣生成的 ……
據泾渭視頻報道:近日,廣東廣州,一女子在地鐵上的照片被 AI 一鍵脫衣,造謠圖在網絡廣泛傳播引發關注。
事實上,照片的女主角是小紅書的一名博主,而所謂的 " 裸照 " 則是她去年 7 月在平台分享的一張照片。原圖中她衣着正常,完全沒有任何不妥之處,但卻被有心之人用 AI 軟件一鍵脫衣,故意全網散播。
目前博主已在評論區回複各位網友,稱會進行相關的維權處理。
值得欣慰的是,在這則圖文分享的評論區,已經有衆多網友評論提醒博主被造謠的事實,催促其盡快報警,也有人熱心地幫助其辟謠澄清。
死灰複燃的 AI 脫衣
僞造謠言百口莫辯
早在 2019 年,國外程序員就開發出了 DeepNude 這款使用 AI 技術 " 脫衣 " 的應用,通過使用類似 deepfakes 的深度學習技術,DeepNude 使用女性裸照訓練之後可将圖像中女性身上的衣服替換掉,創造出幾可亂真的合成裸照,也就是大家所說的 " 一鍵脫衣 "。
後因廣泛的輿論争議,開發團隊選擇将該項目關閉。
記者在網上查詢發現,盡管 "AI 一鍵脫衣 " 相關軟件早已被封禁,但在網絡上并不難找出替代品。
非法網站公然宣告提供 " 脫衣服 " 功能
有些非法在線網站甚至公然介紹,該網站可以 " 使用 AI 算法的強大功能爲照片脫衣服 ",并提供 " 免費下載,免費試用 " 的功能。
更爲惡劣的是,即使上傳的是男性的照片,這些網站仍會将照片上的人物 P 上女性的裸體。
有博主發視頻稱,在現今 AI 強大的算法下,時間、地點都對得上的情況下,僞造謠言對普通人來說百口莫辯。而唾手可得的脫衣軟件則更讓造謠者有機可乘。
AI 換臉換裝
或涉嫌刑事犯罪
近年來,"AI 換臉 " 走紅,一些 "AI 換臉 " 的 App 使用明星的圖片制作換臉視頻進行推廣,其趣味性背後暗藏不少法律風險和侵權糾紛。
明星劉昊然就曾在 2021 年 8 月 26 日發博打假,控訴網上流傳的某淫穢視頻爲 AI 換臉技術僞造,并向警方報案。
專家表示,在《網絡安全法》第二十七條的規定當中,特别強調,明知他人實施危害網絡安全活動的,不能夠爲他提供技術支持,如果情節嚴重,還會構成幫助信息網絡犯罪活動罪等刑事犯罪。