专家:AI很可能导致人类智能的退步(4)
研究人员进行了神经元层面的干预实验。通过对跨语言重叠神经元进行强制激活或抑制,研究发现:抑制这些神经元会导致跨语言知识迁移能力显著下降,证明了它们是知识流动的关键桥梁;而激活虽然能带来适度的性能提升,但其收益幅度远小于抑制所造成的损失。这表明,虽然神经元干预能一定程度上调节知识迁移,但无法彻底消除根植于模型设计与训练中的不平等。要从根本上解决这一问题,不能仅靠后期的小修小补,而必须回溯到模型开发阶段(如平衡预训练数据、优化分词器设计),进行更底层的预防性设计。
研究者坦承三大局限:一是实验仅覆盖19种语言和4个模型,二是神经元干预只是初步探索,三是未能触及数据不平衡的根本问题。但他们强调,真正的解决需要"预防性设计":平衡多语言预训练数据、开发语言中立的分词器、在损失函数中引入公平性约束。
当AI成为知识入口:公平与认知的新挑战
综合来看,这项PNAS研究揭示了一个常被忽视的问题:大语言模型不仅在不同语言之间存在性能差异,而且这种差异会在学习新知识的过程中不断被放大。当AI逐渐成为人类获取信息和学习知识的重要入口时,这种技术结构中的不平等可能进一步转化为现实世界中的知识差距。更值得警惕的是,如果人类越来越依赖AI完成信息检索、理解与判断,而AI本身又带有系统性偏差,那么长期来看,人类的学习方式与认知结构也可能受到影响。正因如此,研究者认为,未来的AI发展不仅需要追求性能提升,还需要在模型训练数据、语言覆盖与系统设计层面引入更严格的公平性考量,确保人工智能成为促进知识共享的工具,而不是新的认知鸿沟的放大器。