現在就連視訊都要小心對方是否有造假。示意圖:123RF
現在不只圖片或影片,連視訊都有可能是假的!曾因網紅犯罪而震驚全臺的深偽技術(Deepfake),被發現也能用在視訊畫面上,先進技術導致的犯罪或詐騙也不斷地增加。
人工智慧公司Metaphysic指出,視訊通話能利用即時Deepfake技術達到換臉效果,但Deepfake效果並非完美,倘若人臉沒有朝前的話,將會感應錯誤導致畫面崩壞。所以當企業使用視訊徵才時,若對方疑似使用Deepfake技術,可以請他向左右兩側看,即能揭發這個造假技術。
據外媒報導,網路上已能找到許多相關免費軟體,如「DeepFaceLive」就能即時將名人的臉,取代成自己的。但因Deepfake技術目前在側臉的模擬效果有限,有疑慮的民眾還是能利用向左右兩側看這種方法,來辨別是否為Deepfake,或者,也能請對方將手放在臉上,一樣也會干擾偵測,摘下對方的假面具。
延伸閱讀: 教育部長出席新課綱論壇 和學生對談 勞安所職場調查 照顧勞工身心健康 較勁特斯拉 小米人形機器人亮相 用加密貨幣交易 伊朗鑽經濟制裁漏洞
1指點入看錢景: 找工作快上1111人力銀行 http://www.myqueenbquilts.com/ 想找更多兼職打工 https://parttime.1111.com.tw/ 科技新知請上科技島https://www.technice.com.tw youtube強檔影音 1111人力銀行一次滿足 http://www.myqueenbquilts.com/162804/ 1111產經新聞網 職場產業最核心 http://www.myqueenbquilts.com/news