2019-09-15
〔記者劉慶侯、吳政峰/台北報導〕最近網路上不斷轉傳台灣知名女藝人「下海拍A片」的真槍實彈影片,不少民眾看過影片,驚訝於「好像真的是她!」實則該名加入國外人氣團體的台籍貌美女藝人,是被南韓AV影視業者「借臉」,利用新科技「Deepfake」技術,將她面容「完美地複製」在色情片女演員面部上,因五官、表情等特效太逼真,讓人看不出是「變臉」影片,也使該片成為近來最夯的網路瘋傳「AV鉅片」。
法界人士說,知名藝人臉貌被AV業者拿來當成商品行銷,已侵害女藝人肖像、人格權等,女藝人是名副其實的受害人,若提告,AV業者在刑事、民事方面都有責。
南韓AV業 用Deepfake黑科技搞鬼
所謂的Deepfake,是英文「deep learning」(深度學習)和「fake」(偽造)的混成新詞,專指藉助人工智能抓取特定對象大量的影片、照片,組合而成的人體圖像影像合成;昔日在專業用詞上,被稱為「人類影像合成(Human image synthesis)」技術。
片頭說明是深度偽造 不能免責
南韓AV業者製作的這支影片,7、8月間被放在其專屬網站而流出。影片剛開始仿日本A片播放一段類似FBI警語,警告不要公開播映和盜拷;業者又以英文和韓文打出一段「自圓其說式解釋文」,指這支影片被稱為「深度偽造」,是利用人工智能技術創造生成,只被用於娛樂和教育目的上,以及不應被未成年者觀賞等,意圖規避法律責任。
影片有3段,每一段約4分鐘,封面全裸女郎不知名,但影片裡的女主角赫然激似台籍女藝人,一般觀眾幾乎完全看不出是經過「變臉」的特效片,多會認為真的是本尊,或至少認為AV業者太神通廣大,能找到和該名貌美明星長相如此相似的女子演出;只有對人類影像合成技術熟悉的人,才嗅出了「真相」。
以為是真人 網路瘋傳「AV鉅片」
據熟悉AV業界的人士說,這個南韓AV色情網站近年來利用最新Deepfake技術,大量合成偽製各個南韓當紅女影歌星,成為AV片女主角,南韓女星IU也是受害者之一。
至於該名台籍女藝人,因知名度高、人氣旺,大量蒐集她的影像、照片非常容易。業者在「材料豐富」前提下,使用Deepfake技術輕易生成栩栩如生的女藝人動作影像,再被用來做為牟利工具。
由於Deepfake的技術被濫用,近來開始引發外界注意,但目前尚不清楚南韓檢警有無接到受害人報案或主動分案偵查。
2019-09-15
〔記者吳政峰/台北報導〕法界人士說,民眾肖像若遭盜用,改作成不堪入目的影片或圖片,可先提起民事假處分,禁止各大社群網站引用,再提起民事求償與刑事告訴。
再提起民事求償與刑事告訴
法界指出,Deepfake「變臉」技術出現後,每個人都可能成為被害人,故一旦受害,比如自己「被成為」色情片的男女主角,當務之急就是要禁止散佈,降低損害,應馬上向法院提出民事假處分,接著,受害人也可提起妨害名譽等刑事告訴,並提起侵害著作財產權與人格權的民事賠償,以及名譽受損的侵權行為損害賠償。
如果假影片的出現還演變成擾亂公共安寧的結果,還會構成違反社會秩序維護法,涉案人可被處拘留3日或3萬元罰鍰。
侵害女藝人著作人格權
AV情色業者使用Deepfake技術,把台籍女藝人的面貌「移植」到情色女演員的臉面上,影片從其網站流出,讓不知情者誤以為本尊下海拍情色片。曾任檢察官的律師翁偉倫指出,業者恐觸犯最重可判2年徒刑的「侵害著作人格權」與「妨害名譽」2罪。
翁偉倫表示,Deepfake技術把A的臉變成B的臉,且擬真效果優異,網友不察,極易被誤導。
從法律面向看,翁偉倫解釋,AV業者擷取女藝人所拍影片,再片段擷取她的頭部影像,轉P在AV女優身上合成出新影片,形同「歪曲、割裂、竄改」侵犯女藝人的著作人格權,致其名譽受損,依我國著作權法第93條規定,最重可處2年徒刑、併科50萬元罰金。
此外,AV業者讓外界誤以為女藝人拍A片,貶損她的名譽與社會地位,也觸犯妨害名譽罪,最重同樣可判2年徒刑;翁解釋,AV業者把影片放在網站上,屬於意圖散布於眾,AV女主角又P上女藝人的面容,為指摘或傳述足以毀損他人名譽之事,觸犯刑法第310條的誹謗罪。
就算AV公司在片頭寫出「影片是利用人工智能技術創造生成,應只被用於娛樂和教育目的」等免責警語,但這只是AV公司一廂情願之舉,不會影響成罪要件。
翁偉倫提醒,目前實務見解漸傾向認定「AV有著作權」,也就是說,如果AV公司改作的原始影片非自己拍攝,而是盜用他人的AV,還可能再觸犯著作財產權,此罪最重可判3年徒刑。
雖然本案犯罪地在韓國,且所犯之罪不是重罪,台灣不具管轄權,但韓國與我國一樣,同樣有著作權的刑責與妨害名譽罪,受害的我國籍女藝人只要有意願,仍可跨海提告,保障個人權益。
2019-09-15
〔記者劉慶侯/台北報導〕Deepfake「變臉」技術出現,雖是科技的一大進步,但犯罪惡行也恐升級,檢警擔心若被人拿來用於栽贓、製造事端等犯罪行為,就不再只是知名人物被「借臉」的少數人受害,而是全民都可能成為受害人,而且相關犯行偵查的複雜性也跟著升高。
由此看,「有圖有真相」的諺語,將因「深偽科技(變臉、仿真)」的日趨成熟,被大大的顛覆。
偵查複雜性升高 全民都可能受害
檢警表示,以目前「假新聞」層出不窮情況,再加上國內選情十分激烈,如果現今有人運用製作的「深偽」影片惡意抹黑攻訐,比如將一段影片匿名PO網,陷害已婚者偷帶女子進入摩鐵,或陷害公務、執法人員上聲色場所縱情玩樂,又或者流出某人吸毒、從事不法等畫面,往往讓當事人一時之間百口莫辯,或再如何辯解也沒人相信。
因為「有影片、有真相」,等到很久以後真相水落石出,傷害早已造成;更嚴重的情況是,萬一偽影片是從我司法管轄不到的境外領域流出,一旦找不出偽片來源,就難釐清真相,受害人恐萬劫不復。
警方人士認為,隨著Deepfake的開發普及化,未來法律訴訟事件可能會愈來愈多,屆時能否及時查知真偽,還原出真相,或開發出足以快速反制的鑑驗技術,值得正視。
2019-09-15
〔記者劉慶侯/台北報導〕Deepfake這種深層學習技術的原創概念,是2014年由Google Brain的研究員Ian Goodfellow發明。他利用演算法從現有數據中產生更多新數據,例如利用數以千幅特定對象的照片合成出不重複、新的照片,可用於製造更逼真的換臉、像傀儡般的同步動作、偽造聲帶、唇形同步等。
不過,偽造面部表情和將其渲染至目標影片的技術2016年才出現,這項技術更進一步在當時的2D視頻畫面中偽造出面部表情。
Deepfake技術開始被外界注意,應推至2017年12月,有網民在一個人氣論壇上發布偽造的色情影片,把「神力女超人(Wonder Woman)」的女主角蓋兒加朵(Gal Gadot)的樣貌,「換」到色情片女演員身上,幾可亂真;其他受害
知名女星還有史嘉蕾.強森(Scarlett Johansson)、泰勒.絲薇芙特(Taylor Swift)、艾瑪.華森(Emma Watson)、娜塔莉.波曼(Natalie Portman)等。
隨後,越來越多人利用這項技術,把名人臉孔轉接到A片上面,如美國前總統歐巴馬和他的妻子蜜雪兒(Michelle Obama)、美國現任總統的女兒伊凡卡.川普(Ivanka Trump)、凱特王子妃(Kate Middleton)等人,他們的面孔都被人「變臉」到情色女演員的臉面上。
近年deepfake技術更進階,出現「影片換臉」AI技術,能分析目標對象各個角度的大量照片後,再透過演算法製造出目標對象的各種表情,藉此和影片中某個角色的面部表情完全契合,影像合成後,如同目標對象真的參與演出。
去年美國出現一段影片,是前總統歐巴馬辱罵現任總統川普「是個笨蛋」的公開挑釁影片,就是被此類技術偽製做成的假新聞。
自此,Deepfake代表利用人工智能自動生成、幾可亂真,或是立意用心不良的偽造影片。
2019-09-15
〔記者劉慶侯/台北報導〕國內近期播映完畢的日劇「3年A班—從此刻起,大家都是我的人質」,是講述一件由不肖份子受委託製作的Deepfake影片,故意藉以引發網路酸民霸凌攻擊,結果導致受害女高中生精神不堪負荷,跳樓自殺的重大事件。雖是戲劇,卻也真實預告未來假影片可能造成的傷害與後果。
-
國內近期播映完畢的日劇「3年A班—從此刻起,大家都是我的人質」,是講述一件由不肖份子受委託製作的Deepfake影片,故意藉以引發網路酸民霸凌攻擊,結果導致受害女高中生精神不堪負荷,跳樓自殺的重大事件。(圖取自KKTV)
這部去年開播的日劇,由人氣男星菅田將暉飾演高中美術教師,在結業式的前10天突然變身成炸彈客,綁架全班學生,威脅他們在沒找出班上一名女學生自殺的真正理由之前,絕不罷休。
在這10天的歷程,逐漸挖掘出多年前有人威逼女老師封口,不敢出面指控一名同校老師觸法,和威逼一位明星級游泳女選手入學指定大學,先後透過不法Deepfake集團製作偽影片,再利用網路公審霸凌,指責女老師搞師生戀,指控女學生是靠吞食禁藥以獲得游泳成績。
結果,在網民以「影片為證」自我認知下,發動漫天言詞攻擊,致使女老師身心受創,自我封閉,退出教壇,不敢再執教鞭;女學生則百口莫辯,身心俱疲而尋短。
這部戲雖是以戲劇手法,營造出充滿懸疑卻又引人省思的故事,但結局也點出網路世界的冷漠和無知。
這部戲在日本引起極大回響,全劇播完仍持續掀起廣泛的討論,探討「究竟誰才是真正隱藏的殺手?」是不肖老師、Deepfake集團、抑或「網路正義魔人」?這部戲今年在台播出時,有人稱之為比國片更深入的日版「BBS鄉民的正義」。
在這一個充滿「假新聞」的網路世界,Deepfake的出現,對未來人們的衝擊會到什麼地步,值得深思和注意。
留言列表