
AI語音就像一把偽裝成鑰匙的複製卡,開的不只是你的信任大門,還可能直通你的錢包。FBI警告,一場結合「語音合成」與「社交工程」的詐騙手法正在擴散,受害對象從一般民眾擴及高層官員。當「聲音」成為駭客最鋒利的工具,唯一能防守的,只有你的懷疑與查證。
美國聯邦調查局(FBI)警告,新興的詐騙活動中,犯罪分子利用人工智慧(AI)生成語音與假冒簡訊,冒充現任與前任美國高層官員,目標鎖定其聯絡人與政府人員。這些訊息為了與受害者建立信任關係,誘導其交出個人帳號資訊。一旦得手,詐騙者就能入侵其他目標,取得更多資訊甚至金錢。FBI指出,這些攻擊手法利用語音生成技術,進行「語音詐騙」(Vishing),並透過「簡訊詐騙」(Smishing)推送惡意連結。
一場從耳朵開始的「攻擊」:你相信誰的聲音?
這些AI訊息的目標並不只是金錢,而是信任。一旦成功與受害者建立起「熟悉感」,他們可能交出個人帳號存取權限、機密資訊,甚至協助轉發更多訊息給其他聯絡人,擴大詐騙範圍。
FBI指出,這些訊息已發送給多位官員與他們的聯絡人,形成一種「點對網」的攻擊模式。某些案例中,AI模仿的語音與真人幾可亂真,不僅聲音精準,連語氣、說話節奏、甚至情緒都經過訓練與設計,足以欺騙熟識該名官員的聽眾。
延伸閱讀:輝達總部落腳北士科!百萬網紅點名「3檔股票」投資人快看
從馬斯克到國安高官,AI深偽正悄悄滲透你的耳朵
2024年,一段假冒伊隆馬斯克的偽造影片宣稱推出加密貨幣計畫,造成數萬人受騙,損失數百萬美元。即便馬斯克本人出面澄清此為詐騙,仍難以遏止擴散。如今這類手法已擴展至政治領域,成為潛在的國家安全威脅。FBI警告,AI詐騙的危害不只是個人財務,更動搖民主體制與社會信任。例如,利用假冒官員的聲音散播錯假政策訊息、指令誤導,恐影響選舉、公共信任乃至社會穩定。
科技濫用難防,法律與教育雙雙落後
AI技術的普及與門檻降低,使得「聲音偽造」成為人人可用的工具。從開源語音訓練資料,到簡單易用的語音模擬工具,只要掌握個人社群媒體資訊,就能訓練出一位AI分身。但相較之下,法律對AI詐騙的規範仍停留在模糊地帶。缺乏國際統一的倫理準則與技術稽核標準,也讓監管幾乎失效。許多平台未能有效標記AI合成內容,讓假訊息快速擴散。
我們能做什麼?FBI給出5大防詐建議
1. 不輕信熟人發來的「異常請求」
即使聲音再熟悉,也要保有懷疑。
2. 建立查證流程
用已知電話、設定通關密語確認身份。
3. 不點不明連結
尤其是短網址與聲稱緊急事項的訊息。
4. 強化帳戶安全設定
更新軟體、啟用雙重驗證、防止帳戶被盜。
5. 提升數位識讀力
辨識AI語音、學會質疑來源,是面對深偽時代的生存技能。
我們正站在AI詐騙全面擴散的門檻上,這不再是科幻,而是現實。從耳機傳來的那句熟悉呼喚,可能是陷阱的開端。這不是要你懷疑每個人,而是提醒你,真誠的關係不靠語音建立,而靠「查證後的信任」。



.png)









