「AI會模仿,信任要驗證!」
近期,詐騙集團利用人工智慧AI技術,模擬親友的聲音,製造緊急情境,誘使受害者匯款。
由於模擬的聲音與真人極為相似,受害者在慌亂中往往難以分辨真偽。
📌常見的AI語音詐騙手法
1.緊急情境誘騙:
詐騙者冒充親友,聲稱遭遇車禍、被綁架或其他緊急狀況,要求立即匯款。
2.冒充機構人員:
假冒政府機關或銀行人員,聲稱受害者涉及案件或帳戶異常,要求提供個人資訊或匯款。
3.投資詐騙:
冒充投資專家,聲稱掌握內線消息,誘騙受害者投資高風險的金融商品。
🛡️如何防範AI語音詐騙
1.設定家庭密語
2.保持冷靜,勿急於匯款
3.避免公開分享聲音資料
4.使用防詐工具
5.報案與求助
如懷疑遭遇詐騙,可撥打165反詐騙專線,尋求協助。