杜絕假新聞 AI應用升級與疑慮

記者/陳慧郁

數位科技的進展,雖然為當代資訊傳遞帶來極大的便利,卻也衍生各種資訊隱私及假新聞廣泛散布的問題,正如人工智慧 (AI) 的發明,同樣被視為是一項科技雙面刃的技術,儘管可以透過強化其機器學習能力與演算法的改進,預測假訊息可能的生成來源,並阻止已發布的假新聞持續地擴散,但其所衍生的深假 (DeepFakes) 變造影片卻可能成為有心人士操縱選舉的利器,且惡化社會中的政治分歧。因此,面對極具誤導性的假新聞,人工智慧的應用該如何在創新與控管間取得平衡,將對社會的決策與治理產生決定性的影響。

假新聞猖獗 AI防護的挑戰與契機

為了防範可疑消息的濫發與改善假新聞肆虐的情形,社群平台紛紛加大投資研發AI的力度,並分別祭出不少對抗及預防假新聞的策略方案,其中最為人所關注的莫過於在台總計超過兩千萬名活躍用戶的訊息服務平台-Line。有鑑於先前詐騙集團滲入竊取民眾個資和金錢的事件層出不窮,再加上未經查證的假訊息於平台內四處流竄,LINE啟動「數位當責計畫」,提供「LINE謠言查證」的官方帳號,並首次攜手中立查核機構台灣事實查核中心MyGoPen真的假的蘭姆酒吐司,讓閱聽眾可以從「被動轉傳」假訊息的一方,轉化為「主動查證」的影響者,共同遏止假訊息的氾濫現象。

同樣為有效地杜絕假新聞頻傳情況的Twitter,也在今年6月宣布買下英國新創公司「Fabula AI」,並將通過該公司機器人學習深度演算法來檢測平台上的不實言論和防止有心用戶的濫用行為。有別於傳統的ML演算法,Fabula AI的圖形深度學習技術是一項將ML技術運用在網路結構化資料的新方法,它不但能夠辨別假新聞與真新聞散播模式的差異,還能成功找出受到內容加密的訊號。因此Twitter表示,相信Fabula AI的加入,一定能為公司的機器學習研究團隊計畫帶來新進展,同時也能促進Twitter平台建造更為友善健康的社群環境。

■Twitter近來以建造一個更加安全可信的自由平台為目標邁進,不僅規範使用者的追蹤準則,更嘗試將機器學習與深度學習法納入平台運作之中,藉此保障用戶使用權益。(截圖自/Twitter官網)

資訊接收來源與傳播生態的轉變使假新聞對社會可能造成的危害更勝以往,而社群傳媒平台無意為用戶所建起的同溫層更成了其病毒式擴散的最大推手,面對數位威權時代所造就的種種挑戰,社群媒體龍頭們除了精進AI等查核技術外,該如何持續優化第三方事實的審查機制、納入更多跨領域與跨專業人才的協助,並於資訊自由的中立性原則及企業責任間找到平衡,將會是這場資訊戰爭的下一個挑戰。

科技運用隱憂 AI審查機制的潛在風險

透過人工智慧與機器學習技術的發展,不僅有助於過濾新聞的真偽,甚至還能依循人、事、地等關鍵字線索追蹤資訊來源,這也是為什麼許多媒體從業人員認為選擇導入科技輔助即是解決真假訊息痛點的最佳選擇。但是,藉由AI審查的解方是否真的為這股假資訊肆虐浪潮下最好的對策呢?抑或說,我們可曾疑慮過究竟是誰有權界定哪些言論應該被過濾?以及使用何種言詞就該被定義為問題用語呢?

目前AI技術的採用大多仍是所謂的監督式學習(supervised learning)。這意味著它必須依照設計者給予的訓練資料(training data)演算出規律,再將得出的規律推演至未知資料的應用上。然而,不論是在人類文化裡本就存有的無形歧視,還是身為人而無法達到的絕對客觀,都可能間接造就出帶有偏見的AI。

根據華盛頓大學康乃爾大學的聯合研究結果所示,Twitter平台的貼文中,非裔美國人(即黑人)被AI審核為仇恨言論的數量與其他族群相比多了1.5倍,並且比起使用一般用語的文章,假若你的內文中含有美國的黑人語法,就更易被標記為屬於無建設性的攻擊言論。也就是說,一旦AI訓練素材本身就存有偏誤,那在客觀的演算法其實都不過是在強化社會中所隱含的偏見。因此,如何在人工智慧的運用過程中將科學嚴謹性、倫理因素及公平原則統合考量,以使人工智慧的發展能夠符合社會期待,而非為社會招致另一個科技隱患,將是當前AI技術邁向永續性發展所必經的路程。

■目前以台灣來說,行政院國家資通安全會報技術服務中心 (NCCST) 其成立宗旨正是為推動國家資安政策與加速建構國家資安環境,並期望給予大眾創造更加全面的智慧防護生態網。(截圖自/行政院資安會報中心官網)

 

分享此新聞: