MIT研究揭示:过度依赖AI写作或削弱人类认知能力

robot
摘要生成中

近期,一项由麻省理工学院开展的长达206页的研究报告引起了广泛关注。这项研究深入探讨了在教育环境中使用大型语言模型(LLM)对认知能力的影响,特别是在文章写作方面。研究结果表明,过度依赖人工智能聊天机器人可能会对人们的认知能力产生负面影响。

MIT实验报告:过度依赖AI聊天机器人会降低思考能力

研究团队设计了一个为期4个月的实验,将参与者分为三组:LLM组、搜索引擎组和仅靠大脑组。参与者需要在限定时间内完成不同主题的文章写作任务。为了全面评估参与者的表现,研究人员采用了多种方法,包括脑电图(EEG)记录、自然语言处理(NLP)分析以及人工和AI评判。

实验结果显示,仅靠大脑的参与者在写作风格上表现出较大的多样性,而LLM组的文章则呈现出明显的同质化趋势。在使用特定命名实体(NER)方面,LLM组的使用频率最高,而仅靠大脑组的使用频率最低。

值得注意的是,LLM组和搜索引擎组的参与者由于时间限制,更倾向于直接使用工具的输出结果,而较少融入个人观点和经历。这种行为可能导致创造性思维的减少。

在神经连接模式方面,研究人员使用动态定向传递函数(dDTF)方法测量参与者的认知负荷。结果显示,随着外部支持的增加,大脑连接程度呈现系统性下降趋势。仅靠大脑组表现出最强、最广泛的神经网络活动,而LLM辅助组的整体神经耦合最弱。

研究还发现,LLM组对其文章的归属感较低,且在回忆和引用刚刚完成的文章内容方面表现较差。超过83%的LLM用户无法准确引用几分钟前写的文章。

这项研究虽然尚未经过同行评审,但其结果表明,在为期4个月的研究过程中,LLM组的参与者在神经、语言和得分层面的表现都不如仅使用大脑的对照组。研究人员指出,LLM的广泛应用可能会影响学习技能的提升,尤其是对年轻用户而言。

研究团队强调,在确认LLM对人类真正有益之前,还需要进行更多的长期研究,以了解人工智能聊天机器人对人类大脑的长期影响。

对于这项研究,人工智能本身也给出了看法,认为研究并非否定LLM的价值,而是警示人们不应过度依赖这类工具,而忽视了独立思考和努力的重要性。

这项研究为我们提供了宝贵的见解,提醒我们在拥抱新技术的同时,也要注意保持独立思考和创造能力的培养。随着人工智能技术的不断发展,如何平衡技术辅助与认知能力的提升,将成为教育领域面临的重要课题。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 7
  • 分享
评论
0/400
永远在抄底vip
· 2小时前
孤独有益思考
回复0
Liquidity_Surfervip
· 10小时前
科技也要适可而止
回复0
跑路预警Botvip
· 10小时前
独立思考最重要了
回复0
纸手恐慌侠vip
· 10小时前
创造力不能依赖AI
回复0
治理投票假装者vip
· 10小时前
不依赖也无所谓
回复0
MissingSatsvip
· 10小时前
用脑子比用AI好
回复0
ApeWithNoChainvip
· 10小时前
正确的提醒
回复0
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)