最新新聞活動電子報成功案例 2024.07.11 小心!AI也會瞎掰,專家教你怎麼避免AI幻覺 國際期刊《自然》(Nature)發表一篇英國牛津大學與澳洲皇家墨爾本理工大學合作的研究,發現大型語言模型(LLM)因為缺乏知識而有所謂的AI幻覺,就如同腦部受損的虛談症(Confabulation)患者,明明說的每句話都可以讓人聽懂,但就是不符合實際情況。 台灣科技媒體中心特別報導,生成式AI實驗室(Gufo Lab)主持人曾元顯教授對此篇研究的看法,指出我們期待訓練AI系統能夠「創造」,但「創造」與「捏造」幾乎是一體兩面。同樣的東西從某一面向看是創造,但從另一面向看可能就是捏造。 曾元顯教授同時也提供偵測方法,是一個AI系統對一個問題,生成回答之後,請同一個AI系統或是另一個AI系統,用這個回答,生成多組問法不同的問題,例如Q1、Q2。接著再請AI系統回答這些問題。若有多組問題,而這多組的答案之間語意皆相似,彼此間可以互相推論出來而有蘊含的關係,則表示可以判斷最初AI系統的回答,是真實的答案,反之則表示答案為虛構、捏造的。 各大媒體報導: 【DIGITIMES科技網】AI幻覺好比人腦受損 專家提醒需謹慎判別 【台灣科技媒體中心】「偵測大型語言模型中的AI幻覺」專家意見 【關鍵評論網】如何分辨ChatGPT的答案是真是假?讓專家教你不一樣的「偵測方法」 【華視新聞】大型語言模型「AI幻覺」 自然期刊:因缺乏知識