BTCC / BTCC Square / TechFlowPost /
研究:長期依賴ChatGPT等大型語言模型或將損害認知能力

研究:長期依賴ChatGPT等大型語言模型或將損害認知能力

Published:
2025-06-20 09:53:23

深潮 TechFlow 消息,6 月 20 日,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴ChatGPT等大型語言模型(LLM)可能損害認知能力。 研究顯示,使用AI寫作的參與者大腦中ALPHA波連接數量僅為獨立思考者的一半(42比79),且83.3%無法準確引用自己的文章內容。 研究者稱這種現象為"認知負債"——短期內減輕思維負擔但長期導致批判性思維和創造力下降。

|Square

下載BTCC APP,您的加密之旅從這啟程

立即行動 掃描 加入我們的 100M+ 用戶行列