杜撰虛假文獻、引用不存在的名人觀點、編造錯誤數據、將舊事當作新聞傳播……基于不完整信息生成看似合理實則錯誤的答案,讓人難以分辨真偽,這種現象被業界稱為“AI幻覺”。
“AI幻覺”是大模型天然存在的隱性缺陷。具體表現在互聯網上,大模型只會單純搜索內容進行推理,無法像人一樣判斷真假,且不對信息本身的真實性負責。4月25日,李彥宏在百度AI開發者大會上坦言deepseek存在幻覺多、速度慢等痛點,將“AI幻覺”這一概念再次拉入大眾視野。這個詞匯早在2023年就顯跡在互聯網上,但時至今日仍在各大社交平臺有具象化呈現。
例如在小紅書平臺,“DeepSeek生成假的參考文獻怎么辦”相關帖子達到5萬條;微博上,#防止DeepSeek亂編文獻的方法#的話題也沖上熱搜。加之一些人不經判斷就依賴AI走 “捷徑”,相關爭議持續不斷。
在AI的浪潮下,如何兼顧正確與效率的同時,守護自己的思辨能力?
破解AI幻覺,開“AI + 教育”落地新局
面對AI大模型“一本正經式地胡說八道”,若想避免被誤導,一方面需要正確看待AI生成、輸出的內容,另外一方面,與AI良性互動,而非對其輸出結果全盤接受。中國人民大學新聞學院教授盧家銀指出,這種現象在知識建構與思維發展層面存在雙重隱患:在知識建構上,AI生成的虛假學術成果,可能扭曲青年對科學方法論的理解,削弱其“假設-驗證”的科研邏輯訓練。在思維發展上,AI謠言通過算法推薦的“信息繭房”形成邏輯閉環,不利于批判性思維的培養。
因此,AI輸出內容應被視作認知起點而非終點。我們需要主動驗證信息可靠性,例如查閱權威信源、對比多元觀點,甚至與領域專家直接交流。除了小心謹慎使用大模型之外,酷開探索出“AI + 教育”場景化落地的另一條路徑——讓大模型僅承擔宏觀調度與規劃功能,即先由大模型拆解分析題目,再依據具體需求調用適配工具解題。這一思路在搭載教育智能體的酷開AI學習機Y41 Air上得到實踐印證。
從“答題工具”到“思考輔助者”,AI如何才能講好一道題
真正有“人味兒”的AI教育,始于對技術邊界的清醒認知,酷開要做的是讓AI成為“思考輔助者”,而非答題“工具”??衢_AI學習機Y41 Air搭載的教育智能體,打破通用大模型的數據泛化問題,通過整合K12全學段10億級去重題庫,用大量的基礎數據規避AI“天馬行空”式的推理的干擾,從底層夯實了大模型解題的準確性與可解釋性。
當學生提問時,學習機會遵循“先匹配、再推演”的雙軌邏輯,首先在海量題庫中精準匹配相似題型,再通過大模型進行解題路徑的分層推演,從源頭上降低AI幻覺風險。以初中幾何題為例,酷開AI學習機Y41 Air 如同私人“家教”般,不僅呈現答案與完整推理過程,更通過一對一提問引導的方式,促使學生觀察圖形特征、自主推導輔助線添加邏輯。
這種在解題過程中融入個性化互動引導的設計,既提升了人機交互的擬真感,更著力培養學生主動思考與分析的思維能力,與傳統AI答題工具形成了本質區隔。
當前AI教育正站在應用普及的十字路口??衢_學習機展現的技術路徑表明,化解AI幻覺風險不能單純依賴模型優化,更需要從教育本質出發重構人機關系。在AI與教育深度融合的進程中,如何平衡技術能力與教育邏輯,酷開的實踐給出了一個值得關注的答案。
申請創業報道,分享創業好點子。點擊此處,共同探討創業新機遇!