發表文章

目前顯示的是 5月, 2022的文章

Deepfake—犯罪的媒介還是有利的工具

在去年十月時, 小玉換臉事 件在台灣鬧得沸沸揚揚—百萬Youtuber小玉利用Deepfake技術將許多名人的臉合成在成人影片上並散播於網路上以此牟利,造成多位Youtuber、藝人,甚至政治人物受害,而這也是台灣第一起利用Deepfake製作換臉成人影片的犯罪案件。 相信有許多人是在小玉換臉事件後才第一次聽到Deepfake這個技術,那 Deepfake又是甚麼呢 ?簡而言之,Deepfake是人工智慧的一種,能夠將一個人的圖像、錄音或影片改變成另外一個人的樣子。以下這個美國前總統歐巴馬的影片也許能讓你更加感受到Deepfake的厲害 https://youtu.be/cQ54GDm1eL0 這個影片真的是歐巴馬本人嗎?並不是,這只是利用Deepfake所製作出的影片,真實到幾乎看不出是合成的,這就是Deepfake的威力。 Deepfake如此強大的功能,很快就被許多有心人士利用,除了上述的小玉換臉事件, 印度 也曾發生類似案例,不但造成受害者身心受創,也造成她們名譽受損,而在商業方面, 香港 和 英國 就曾發生犯罪者利用Deepfake合成上司或是合作夥伴的聲音打電話給受害者並要求他匯款,導致公司產生鉅額損失, 此外 ,利用Deepfake刻意製造有關企業的假消息也可能讓公司名譽受損;在政治方面,候選人可能會被偽造的影片等媒體抹黑,造成形象毀滅而影響選舉結果,甚至斷送政治生涯;而最嚴重也影響我們最深的是社會方面,利用Deepfake製作的假訊息容易讓人信以為真,且傳播的速度快、規模大,這些刻意散播的假訊息可能造成社會分裂更為嚴重、社會恐慌、對媒體的不信任等等。 看完以上例子可能會覺得Deepfake百害而無一利,但事實上它也有許多 正面的用途 。教育上可以讓學生對於歷史事件等原本抽象的課本內容更加身歷其境;醫療上可以應用於聾啞人士,利用Deepfake 模擬聾啞人士的聲音 ,使該病患可以用原本的聲音溝通,另外,做醫療研究時,也能用Deepfake創造出虛擬病患並輸入實際病患的數據做研究,不讓實際病患做測試以保護病患的安全;在娛樂產業上,利用Deepfake可以讓 製作遊戲更加簡單 ,或是用其合成演員的聲音,使演員能夠「說出」不同國的語言,也能模擬已逝演員的身影,讓已經過世的演員出現在電影之中。 從以上可知,Deepfake有好的應用也