評論 > 存照 > 正文

不要過度信任和依賴AI給出的答案

我這兩天有個問題想不通透,所以昨天乾脆扔給deepseek去幫我分析。因為這只是我個人的疑問,所以也沒打算加班寫文章。但在和deepseek溝通的過程中,倒是發現了另外一件事,或許更需要跟大家聊聊。

不過deepseek一如既往的話癆,字數太多,我只能換到PC版截圖了聊天記錄。截圖字小,如果看不清可以點開看大圖。

1.首先在deepseek回答我的問題後,我發現裏面有一個重要信息和我以前所了解的不符,也就是下圖紅框的部分。

2.所以我複製了一下之前的新聞內容,追問了一下。而deepseek則很快認識到了自己的錯誤,說明的確有這個要求。但是這次的回答中又有另外一個更明顯的問題。

3.我只好繼續追問它為什麼給出了這個新的錯誤信息。它重新檢索之後,反省說自己其實沒找到過今年發表的聲明,還跟我道歉。

4.我好奇它連續出錯的原因,問它為什麼會犯這種錯誤。它承認錯誤倒是很快,說明自己之前犯錯的原因包括:規則理解偏差、信息更新延遲和過度推斷流程。並且深刻致歉,表示自己以後會努力改正。

5.最後我又重新問了一次最開始的疑問。這次deepseek給出的答案我就沒有發現什麼問題了。

需要這裏特別提一句:deepseek認為未來幾天可能補發通告,或者是因為接近尾聲所以之後會直接發佈最終報告。我個人認為這兩種可能性是存在的,我也很希望deepseek的判斷會變成現實。

後續:但有趣的是,我今天另起一個新對話,再次複製粘貼問了最初的問題,而這次deepseek依舊犯了同樣的錯誤。也不知道現在大家問它的話,是會得到怎樣的答案。

開始就說了,今天的文章並不是關於我問deepseek的問題,我已經多等了兩天,而且會繼續等到有最終報告的那天。

但和deepseek的溝通中,讓我想起最近感受越發感受明顯的一件事:隨着這兩年AI的熱度,尤其是deepseek出現之後,我身邊越來越頻繁的出現一種場景——當你問別人「你這麼認定的證據和理由時」,對方信誓旦旦地回答你說「deepseek這麼說的」。

只是deepseek也好,還是國內外其他AI也好,雖然它們檢索匯總資料的能力很強,語言表達能力現在也不錯。但依舊會犯很多比較初級的錯誤。

就比如前面我和deepseek溝通,deepseek因為搜到了2023和2024年的資料,就很隨意地推斷認定2025年也有。

更重要的是,AI,尤其是針對公眾免費使用的AI,無論是哪個國家哪個公司開發的,其實都只能檢索到限定範圍內的部分資料,尤其是網絡傳播較多的信息。這就導致AI可能會被網上主要流傳的信息所引導。如果AI檢索範圍內的網絡信息,基本都是錯的,或者有偏差的,那AI的答案就很難科學和真實。

就像deepseek分析自己出錯的原因:規則理解出錯、信息偏差延遲、過度「自信」推斷,這些其實都是現階段AI容易犯的錯誤。

之前的文章中寫過,無論是下一代還是我們,未來的一個重要課題就是如何學習使用AI,不只是說要搞明白如何使用,也包括如何去引導AI更為準確和有效地工作,以及如何判斷AI給出的答案是否有「坑」

責任編輯: 李安達   轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2025/0325/2194706.html