扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
博士生群体对AI工具呈现"爱恨交织"的矛盾心态:75%认可其效率提升,但81%担忧内容可靠性,65%害怕核心能力退化。关键在于明确使用边界,将AI作为辅助工具而非替代品,同时强化AI无法替代的高阶思维能力。 ## 1. 博士生群体的AI使用现状 - **效率提升与信任危机并存**:Nature调查显示75%博士生认为AI提升效率,但81%不信任AI输出内容,65%担忧能力退化 - **普遍应用场景**:文献综述(71%认可)、代码编写、PPT制作等重复性工作成为主要应用领域 ## 2. AI使用的潜在风险与陷阱 - **错误输出隐患**:西澳大学案例显示AI可能完全误解专业问题,用户需具备基础判断能力 - **能力侵蚀担忧**:过度依赖导致学生忽视基础技能打磨,特别是批判性思维和原创写作能力 - **数据安全风险**:38%欧洲高校尚未建立AI使用规范,核心研究数据存在泄露风险 ## 3. 科研场景的AI使用边界 - **推荐场景**:文献梳理(月读50篇→1年)、写作框架搭建、非母语润色等辅助性工作 - **禁止场景**:核心数据分析(涉及保密和学术主权)、论文核心内容原创写作 - **专业工具选择**:Consensus/Elicit等学术专用AI比ChatGPT更可靠,如ResearchRabbit处理文献关联 ## 4. AI时代博士生的核心竞争力 - **不可替代能力**:提出研究问题(比记忆更重要)、处理模糊情境、设计验证实验 - **能力重构方向**:专注系统化解决问题能力,将AI节省的时间用于深度思考 - **新门槛要求**:AI倒逼研究者强化创新思维和现实转化能力等"人类专属"技能 ## 5. 人机协作的终极法则 - **工具本质**:AI处理重复劳动(如语法修正),人类负责价值判断(如实验设计) - **长期趋势**:5-10年内将形成更清晰的AI使用规范,当前需保持核心思考能力 - **关键结论**:用AI增强而非替代人类思维,警惕将便利工具变为思考捷径
2026-04-12 14:03

AI和博士生:是开挂神器,还是能力杀手?

本文来自微信公众号: 生态学时空 ,作者:复旦赵斌


现在不管是写文案、做表格,还是敲代码、想方案,很多人都习惯先打开AI工具求助。那站在学术金字塔尖的博士生们,又是怎么和AI相处的?他们是把AI当成了科研路上的“神队友”,还是怕它成了毁掉自己核心能力的“绊脚石”?


去年Nature上有个工作,专门找了近3800名博士生做了一轮调查,结果特别有意思:四分之三的人都认可AI能大幅提升工作效率,71%的人觉得用AI辅助学业完全没问题;但与此同时,81%的人坦言自己根本不敢完全信任AI给出的内容,65%的人天天在担心——用多了AI,自己的思考、写作、做科研的核心本事,会慢慢被废掉。


这种“又爱又怕”的矛盾心态,几乎是当下所有博士生的常态。


AI给科研开了挂,但坑也藏在便利里


对博士生来说,AI确实把他们从很多繁琐的工作里解放了出来,日常读文献、做PPT、写代码、梳理论文核心观点,全都可能用到AI。AI能给我们省大量时间,还能提供新的研究思路,对现在的科研人员来说,AI绝对是个福音。


但这份便利的背后,藏着不小的坑,很多人都为此栽过跟头。澳大利亚西澳大学一博士生曾经让ChatGPT帮忙计算实验要用的肥料剂量,结果照着这个数据做完实验,全程失败。回头让AI展示计算逻辑才发现,它从一开始就完全理解错了问题。他事后才醒悟:AI永远不会告诉你,你的实验设计有问题、不常见,哪怕你让它做一件根本不可能完成的荒唐事,它也会照做不误。


用AI之前,你自己得先懂你问的东西,不然它出错了,你根本看不出来。更让很多人担心的,是AI对年轻人能力的侵蚀。因为现在的学生,总想让AI包办一切,AI是福音,但它也让学生变懒了,没人愿意再为了打磨技能多花功夫。


用AI的边界在哪?哪些事能交,哪些绝对不行?


博士生们的纠结,很大一部分原因是:AI发展得太快,学校和学界的规则根本没跟上。


欧洲大学协会年初的报告显示,他们调研了全欧洲的高校,只有5%的学校觉得,现有的AI使用规则是完善的;38%的学校还在第一次制定相关政策;甚至有13%的学校,完全没有任何关于AI使用的规定。


没有统一的规则,学生们只能自己找边界。常年给博士生做学术辅导、在YouTube上有近50万粉丝的阿米娜·约尼斯,给了一个很明确的划分标准,不仅适用于博士生,普通人用AI也能参考。


这些事,放心交给AI


找文献、梳理文献核心内容、整理研究资料,是最推荐用AI的场景。靠AI,你能实现一个月读完50篇论文,而不是一年才能读完,能帮你快速摸清一个研究领域的全貌。


除此之外,给论文搭个写作框架、润色文字、修正语法,也是AI能胜任的事。尤其对非英语母语的研究者来说,AI能帮他们更顺畅地表达复杂的学术观点,也能让他们更轻松地读懂全球的前沿研究,相当于打破了语言壁垒。


这些事,绝对别交给AI


首当其冲的就是核心的数据分析工作。一方面,核心的研究数据、分析逻辑,必须是研究者自己牢牢把控的,这是科研的核心;另一方面,很多通用AI工具不会对你输入的内容保密,贸然上传研究数据,很可能出现数据泄露的问题。


论文的核心内容,千万别让AI从零开始写。如果你先让AI写好完整的段落,再去修改,就很难跳出AI给的框架,慢慢就失去了自己的表达能力和思考能力。正确的用法是:自己先把核心内容写出来,再用AI润色优化,而不是反过来。


这里还要提一句,不是所有AI都一样。比起ChatGPT这类通用AI,现在已经有很多专门给科研人员做的AI工具,比通用工具更靠谱。比如专门用来找文献、找证据的Consensus、Elicit,专门给学术论文润色的Paperpal,专门帮写代码的GitHubCopilot,还有能帮你理清论文之间引用关系的ResearchRabbit,能帮你快速看懂一个领域的研究脉络。


AI时代,读博到底要练什么本事?


就算搞懂了怎么用AI,还有一个更根本的问题摆在所有人面前:AI越来越厉害,未来的博士生,到底要练什么本事,才不会被替代?


在AI时代,博士生完全没必要和AI比谁记得多、谁干活快,而是要深耕AI根本做不到的事:提出一个好的研究问题、处理模糊不确定的复杂情况、设计出能在现实里验证想法的实验方案。


读博最核心的收获,是一套系统化解决问题的能力。AI能帮你做扫文献、改稿子这些重复性的工作,就能给你留出更多时间,去做那些慢的、深度的、能带来真正科研突破的思考。AI短期内根本替代不了人的高阶思考能力,反而它把门槛拉高了——逼着人必须专注于只有人能做的事。


用对了AI,能大幅提升博士生的能力,让他们有更多时间去思考核心的科学问题、研究成果怎么用到现实里,这些才是科研最核心的东西。但如果把AI当成逃避思考的捷径,最后一定会出现严重的能力短板。


最后:AI是朋友还是敌人,全看你怎么用


其实不止是博士生,我们每个人都在经历和AI的这场磨合。我们享受着它带来的便利,又隐隐害怕自己会在这份便利里,慢慢失去独立思考、动手解决问题的能力。它能帮你省掉繁琐的重复劳动,却不能替你走那条需要反复试错、慢慢打磨的成长之路;它能给你提供现成的答案,却不能替你拥有发现问题、判断对错的能力。就像很多研究者说的那样,五到十年之后,我们一定会更清楚哪些事可以交给AI,哪些事必须自己亲手做。而在此之前,守住自己的核心思考能力,永远不会错。


解读文献:


  • https://doi.org/10.1038/d41586-026-00843-y

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜