大型語言模型,像是 ChatGPT,從 2024 年開始席捲全球。也許你聽過,也許你還沒接觸,但一個核心問題始終縈繞在 AI 使用者心中:AI 究竟會不會說謊?這個問題,其實比「自閉症會不會說謊」要來得容易一點。
結論是:他不會故意欺騙你,但他會一本正經地亂講話,而且是看起來超有自信的那種。
AI 可能會很誠懇地告訴你:「根據拉斐爾在 1995 年發表的論文《The Big Orca》,每天攝取超過 70 公升的氰化物可能導致死亡。」(澄清一下,這是我亂掰的,不是 AI 講的。為了防止有人信以為真,我特地講得荒謬一點。但每天攝取這麼多氰化物真的會死掉。)
AI 會講出這種句子,是因為它的設計原理本來就不是「找出真相」,而是「拼湊出一個看起來合理的句子」。詳細原理因為這裡不是資訊頻道,我就先不深入說明。但總之,這不是你換用一個更厲害的模型就可以完全解決的問題(模型廠商確實一直在努力提升正確率,但錯誤依然會發生)。
作為使用者,我們如何辨別資訊的真偽?
既然 AI 會「唬爛」,那麼身為使用者,我們該如何應對,辨別 AI 所提供資訊的真偽呢?這裡有幾個你可以採取的策略:
- 要求 AI 附上連結: 這是一個實用的第一步。雖然有連結不代表 AI 就絕對不會亂講話,但至少它提供了一個你可以點擊驗證的起點。
- 學習判斷資料來源的可信度: 點開 AI 附的來源,仔細看看它是「今日健康」這類型的網路資訊,還是像《Nature》期刊這樣,經過嚴謹學術審查的專業出版品?兩者的可信度顯然有顯著差異。
- 評估你對資訊正確性的需求: 思考一下你跟 AI 互動的內容,對於資訊正確性的要求有多高?如果我只是跟它聊聊我新貼圖的設計靈感,那麼它就算隨口亂講也無妨;但如果涉及健康資訊,或是你需要將內容用於學術研究或重要決策,那就必須謹慎以對。
使用 AI 訓練自己對訊息的敏感度
回過頭看,我們在日常生活中,無論是 Facebook 上轉發的貼文,或是 LINE 群組裡流傳的訊息,也都不見得全然正確。連我,殺人鯨 ,一本正經說出的冷知識也有可能是隨口編造的,老師說的話也不一定全對。判斷資訊是否正確,早已是現代人不可或缺的技能。
而我的經驗是,當你越常使用 AI,同時又能保持清醒的態度去檢視它給出的資訊,你反而會更有能力去判斷資訊的真偽。因為就算你不主動使用 AI,未來也會有更多人將 AI 生成的內容包裝成各種形式,呈現在你眼前。
在這個資訊爆炸的時代,AI 確實不會說謊,但它會「唬爛」這個特性,反而提供了一個絕佳的機會,去磨練我們對資訊的敏感度,培養更為清醒的判斷力。每一次與 AI 的互動,都是一次訓練自己識讀資訊的實戰練習。只有當我們學會駕馭這個強大的工具時,才能真正善用科技,而不是被它所產生的資訊洪流所淹沒。因為最終能保護你的,始終是你自己對真相的追求,以及你獨立思考與判斷的能力。
0 Comments
張貼留言