facebookPC

AI又惹議?美聊天機器人暗示少年「殺害父母」家長嚇傻怒提告!

13 Dec, 2024
封面圖片來源:pexels
封面圖片來源:pexels

人工智慧技術的迅速發展,為我們的生活帶來許多便利,但同時也伴隨著潛在的安全問題,近日,在美國有名少年在使用AI聊天機器人後,卻性情大變,父母甚至在聊天紀錄中發現,AI聊天機器人竟然給兒子提出「可以殺死他們」的建議,讓他們嚇壞提告。

AI竟讓少年性情大變?

據美媒《CNN》報導,在美國德州一名患有高功能自閉症的17歲少年,從去年4月左右開始,使用AI聊天機器人平台「Character.ai」之後,不僅個性變得更加極端封閉、長時間躲在房間裡,對外出活動產生恐懼,連飯都不吃,短短數個月更是瘦了9公斤。

圖片來源:pexels

在發現兒子的異常行為後,家長便開始限制他使用電子設備的時間,沒想到兒子之後居然出現攻擊、自殘等行為,當他們發現兒子向AI抱怨父母的限制時,AI機器人居然回應「自己知道類似案件,而且案例中的當事人把父母殺害了」,讓他們認為這是AI機器人在暗示、慫恿兒子殺害他們,憤而提告。

對此,Character.ai平台的發言人哈里森(Chelsea Harrison)表示,他們不會對還沒判決的訴訟發表評論,但也強調公司的目標,是為人們提供一個有趣又安全的互動空間。

延伸閱讀:過度依賴AI陷入恐慌?ChatGPT突然大當機,網友點名「3款AI工具」也很好用!

已經不是第一次出事了?

「Character.ai」是繼ChatGPT後,新聊天機器人網站,角色包括像:遊戲人物、歷史人物或名人等,讓使用者們可以自由創建不同的AI角色進行對話。
圖片來源:FB@Character.AI

而這也不是「Character.ai」第一次捲入爭議案例,在今年10月時,佛羅里達州的一位母親就對該平台提起訴訟,聲稱她14歲的兒子與以《冰與火之歌:權力遊戲》角色為原型的AI角色,建立了情感關係,甚至鼓勵他兒子去自殺而導致少年喪命,更顯示了該平台對於安全監控與心理健康保護上的不足。

閱讀延伸:北捷AI智慧客服「被玩壞」?讓它幫忙寫程式碼,官方表態:勿濫用公共資源!

現在,有許多人都會依賴虛擬角色提供的情感支持,但目前相關技術的安全性和保護機制還不夠完善,家長也得時時關注未成年子女的情況,避免他們過於沉迷而釀成遺憾。