·一方面,技术悲观主义者倾向于将AI视为一种导致人类智力退化,甚至带来生存风险的“异己”力量。这种心态使得“AI让我们变笨”这类简单而惊悚的结论极易获得传播。另一方面则是对这种悲观论调的警惕,以及对科学研究被过度简化和意识形态化的担忧。 有人认为日益强大的AI会成为人们的好帮手,也有人担心过度依赖AI会造成认知上的懒惰甚至创造力的丧失,这类结论到底符不符合事实需要科学的检验。 近日,麻省理工学院媒体实验室的计算机科学家娜塔莉亚·科斯米纳(Nataliya Kosmyna)和她的同事们在预印本服务器arXiv上发表了一项研究,首次探索了使用AI工具进行写作任务对人类大脑活动的影响。研究发现,依赖ChatGPT进行写作的学生的大脑呈现更低的激活状态。 该研究发表后引起了科学界和公众舆论的广泛关注,不仅触动了人们对AI日益增长的依赖的普遍焦虑,也暴露了科学研究在面对颠覆性技术时所面临的解读困境。 研究团队招募了60名来自波士顿地区五所大学的18至39岁的学生。参与者被随机分为三组,每组18人。他们被要求在20分钟内撰写一篇SAT(美国大学入学的标准化考试)风格的短文,回答诸如“我们是否应该在说话前三思?”之类的问题。 研究人员对三组学生使用的辅助工具进行了限制。第一组是“纯脑力组”,学生要在没有任何网络工具的帮助下完成写作。“搜索组”的学生可以使用网络搜索引擎查找资料,但不能使用任何AI辅助的答案。在“ChatGPT组”中,学生只能使用由OpenAI的GPT-4o模型驱动的ChatGPT作为信息来源来撰写文章。 研究人员使用脑电图(EEG)技术,通过一顶布满电极的帽子来实时记录参与者写作时的大脑电波活动。EEG可以测量大脑活动产生的微小电压变化,从而揭示大脑不同区域之间的“对话”或连接情况。 研究发现,与另外两组相比,使用ChatGPT写作的参与者的大脑的连接性在任务期间表现得最低。而“纯脑力组”的参与者则表现出最强、最广泛的大脑区域间连接,并且有更多的大脑活动从后脑区域流向前部的决策区域。此外,当被问及能否引用自己文章中的句子时,“纯脑力组”的成员表现得最好。相比之下,“搜索组”的大脑在与视觉处理和记忆相关的区域表现出更强的激活。 然而,研究人员们强调,更多的大脑连接性并不一定意味着更好或更坏。它可能表明一个人更深入地参与了一项任务,也可能意味着思维效率低下,或者是“认知超载”的迹象。作者们明确表示,这项研究并没有也无法证明使用ChatGPT会导致“大脑变笨、变傻,或者大脑在度假”。 研究中一个更有趣的发现是,当最初使用ChatGPT的参与者转为在没有任何在线工具的情况下写作时,他们的大脑连接性虽然有所增强,但并未达到从一开始就未使用任何工具的参与者的水平。这似乎暗示,依赖聊天机器人完成初始任务,即使之后不再使用,也可能会导致大脑的参与度相对较低。 研究人员谨慎地指出了这项研究的局限性:研究只涉及几十名参与者,且时间较短,因此无法回答长期习惯性使用聊天机器人是否会重塑我们的思维方式,也无法说明大脑在其他AI辅助任务中会如何反应。科斯米纳坦言:“这篇论文中没有任何这些问题的答案”。 “技术如何影响人类认知”一直是科学研究的热门话题,在AI时代之前,互联网就已经引发了认知退化的担忧和研究。但即便是科学家们对这些研究结果的解读也难以达成一致。 根据《自然》(Nature)杂志的报道,早在2011年,哥伦比亚大学心理学家贝齐·斯帕罗(Betsy Sparrow)等人的一项研究就普及了“谷歌效应”(Google effect)这一概念:当人们知道信息可以被数字设备储存下来时,他们记住这些信息的能力会变差。人们似乎更倾向于记住信息存储的位置(比如哪个文件夹),而不是信息本身。这引发了一种普遍的担忧,即我们正在将互联网当作外部记忆库,从而削弱了自身的记忆能力。这个概念甚至催生了“数字失忆症”(digital amnesia)这样的术语。 这一观点与心理学家丹尼尔·韦格纳(Daniel Wegner)在20世纪80年代提出的“交互记忆”(transactive memory)理论相符。该理论认为,人们通过与他人(如配偶或同事)分享信息来减轻记忆负担。当互联网成为我们的“交互伙伴”时,我们似乎可以从记住大量信息的责任中解脱出来。这种将认知任务外包给外部工具(从清单、日历到智能手机)的行为,被称为“认知卸载”(cognitive offloading)。 认知卸载可以解放有限的大脑带宽,让我们处理其他事务,但也可能带来负面影响。例如,有研究表明,使用GPS导航的人在回忆路线方面表现更差。另一项研究发现,过度使用GPS的人,其空间记忆能力下降得更快。 尽管如此,许多记忆研究人员仍认为,关于“谷歌正在让我们变笨”的说法是“夸大其词”。哈佛大学的记忆研究专家丹尼尔·沙克特(Daniel Schacter)指出,尽管有证据表明技术可以影响特定任务的记忆表现,但几乎没有证据表明技术正在对记忆造成更广泛的负面影响。他认为,人们感觉自己记忆力下降,可能更多是因为衰老,或是因为我们现在需要处理的信息量远超以往。 以ChatGPT为代表的生成式AI的兴起,为这个议题增添了新的复杂性。与传统的搜索引擎或记忆辅助工具不同,大型语言模型(LLM)不仅能检索信息,还能生成全新的、看似原创的内容。这带来了新的风险,比如AI可能会“一本正经地胡说八道”(即“幻觉”),从而可能在我们的记忆中植入逼真的虚假信息。此外,由于写作本身是一种促进深度思考和产生原创见解的过程,将这些过程外包给AI,可能会让学生失去学习这些宝贵技能的机会。 该研究预印本一经发布,便迅速在社交媒体和新闻报道中引发讨论,其中不乏耸人听闻的解读。一篇点击量超过2000万的推文宣称:“MIT的研究结果令人恐惧……AI正在让我们的认知‘破产’(Cognitive bankruptcy)”。尽管这种说法并不符合研究者们原来的判断,但也反映出公众对AI潜在威胁的深切焦虑。 而对于另外一些更为专业的批评者来说,这类研究本身对该类议题的把握能力非常有限。比如有批评者指出,这项研究的样本量很小(每组仅18人,第四次实验更是只有9人),且参与者都是来自波士顿顶尖大学的“WEIRD”(西方的、受过教育的、工业化的、富裕的和民主的)人群,这使得研究结果很难推广到更广泛的人群。此外,实验环境也与现实生活中的学习场景相去甚远。 一篇深入的评论文章指出,研究人员对EEG数据进行了大量的统计检验(在1024对电极之间运行了上千次重复测量方差分析)。即使使用了多重比较校正(如FDR),在如此海量的检验中,也很难避免出现由纯粹偶然性导致的“统计显著”的假阳性结果。而脑电技术本身也不够精确,研究中脑电波的变化可能仅仅反映了不同任务(如打字、阅读、编辑)之间的物理行为差异,而非深层次的认知变化。 这些争议不仅关于科学研究的严谨性,也折射出社会面对AI时复杂而矛盾的心态。一方面,技术悲观主义者倾向于将AI视为一种导致人类智力退化,甚至带来生存风险的“异己”力量。这种心态使得“AI让我们变笨”这类简单而惊悚的结论极易获得传播。另一方面则是对这种悲观论调的警惕,以及对科学研究被过度简化和意识形态化的担忧。将一项初步的、探索性的研究结果解读为对AI的最终审判,无益于科学的健康发展。更审慎、更细致的讨论是必要的。
成色18k.8.35mb菠萝据英媒GMS最新消息,纽卡斯尔联正计划对RB莱比锡展开挖角行动,哈维-西蒙斯和安东尼奥-努萨已经进入了主教练埃迪-豪的引援视野。他希望在圣詹姆斯公园的阵容中增加实力,为即将到来的包括欧冠赛事在内的新赛季做好准备。俄罗斯总统助理、俄方谈判代表团团长梅金斯基近日在接受《华尔街日报》采访时表示,俄乌冲突加深了俄乌之间的分歧,因此俄方希望尽快结束这场冲突。成色18k.8.35mb菠萝88888.gov.cn“一般在补贴资金没有发完的情况下,置换补贴业务截止时间为今年年底。我们了解到的情况是补贴额度基本用完了,业务就会提前截止。”上述郑州比亚迪海洋网4S店的销售人员表示。该报道指出,虽然现年22岁的法比安与博洛尼亚的现有合同签到了2028年,但想要继续扩充本土阵容的佛罗伦萨依然将这位意大利U21国脚视为了今夏的引援目标。
20251207 😈 成色18k.8.35mb菠萝我希望自己是个容易感知幸福的人。以前不算是。我时常陷在挽不回的过去,盯着未达成的目标。心神都在过往未来,而“此刻”的感受通通压抑。难过时,压制自己不要表现出来,不能让别人看见你是个脆弱的人。开心时,压抑自己不要得意忘形会显得不稳重。久而久之,感知力弱了。但情绪都压在了身体里,总要找个出口迸发。香蕉.comIT之家 6 月 15 日消息,据财联社报道,三星显示(Samsung Display)位于忠清南道牙山市的 A6 工厂第 8.6 代 OLED 生产线(第一阶段)将于今年年底启动试运行,并计划于 2026 年第二季度全面量产。
📸 柴俊仕记者 訾世界 摄
20251207 🔞 成色18k.8.35mb菠萝中医学和针灸推拿学都是属于医学专业,将来都能成为医生。2025年已经有多所高校不再限制科目要求,文科生都可以报考。未来的就业前景和岗位等,在文科生能报的专业里面已经相当不错。WWW.17cao.gov.cn从公司的估值定价分析,无论是港股还是A股市场,海天味业的估值水平并不便宜,公司的市盈率(TTM)依然处于34倍左右。与此同时,回看最近几年海天味业在A股市场的表现并不乐观,从2021年触顶之后,股价基本上呈现出阴跌不止的走势,目前仍未看到实质性的价格反转走势。
📸 梁长荣记者 王桐利 摄
🌶 很多人到了50岁,容易陷入“穿花穿粉强行减龄”的误区,结果反而显得刻意。真正聪明的做法,是用“质感大于款式”的基础单品打底,材质上要远离廉价感满满的化纤。zjzjzjzjzjy.gov.cn






