AI科学家成诺贝尔奖大赢家,AI for Science是未来技术趋势?

尽管今年诺贝尔奖已经颁出,但相关话题讨论从未停止,AI科学家竟然成诺贝尔奖大赢家。

10月8日,诺贝尔物理学奖授予了约翰·霍普菲尔德和杰弗里·辛顿,表彰他们在使用人工神经网络进行机器学习的基础性发现和发明;次日,诺贝尔化学奖授予了美国华盛顿大学的戴维·贝克、英国伦敦谷歌旗下人工智能公司“深层思维”的德米斯·哈萨比斯和约翰·江珀三名科学家,以表彰他们“用AI破译蛋白质的密码”。

接连将分量颇重的诺奖颁发给AI科学家,这一操作到底合理吗?

AI科学家获奖,“不够物理”吗?

对于AI科学家获奖,大众最大的质疑是,明明是物理学奖,可获奖成果乍看起来好像“不够物理”。

长期以来,诺贝尔奖主要表彰纯科学领域的进步——基于自然法则和物理现象的发现。尽管主流AI技术基础,与传统物理和化学并没有直接关系,但当前状况下,科学和技术间的界线正在变得模糊。
还有人认为,今年诺贝尔奖如此大张旗鼓地授予AI,只会让研究人员更加热衷于对于工具的研究,而忽略最基础的理论探索。

不少专家学者也对此表示了担忧。伦敦大学计算机教授彼得·本特利在接受《每日经济新闻》记者采访时表示,AI在某些事情上更像是问题的一部分,而不是解决问题的方法。英国科研诚信办公室的专家马特·霍奇金森认为,研究人员试图逆向分析今年获奖原因时,他们会更关注技术,而不是科学。

另一方面,也有相当一部分专家学者对AI科学家获奖表示了理解。
对于诺贝尔物理学奖,《科学美国人》网站称,人脑拥有数十亿个相互连接的神经元,通常被认为是已知宇宙中最强大、最灵活的计算机。几十年来,科学家们一直在寻求通过模拟大脑自适应计算能力的机器学习方法。这次获奖的两名AI科学家利用物理学工具开发了人工神经网络,为当今许多最先进的AI应用奠定了基础。

诺贝尔化学奖委员会则称,德米斯·哈萨比斯和约翰·江珀所开发的AlphaFold2是一项“彻底的变革”。自这项模型推出以来,已有190个国家和地区超过200万人使用这一工具。正是有了这些工具,研究人员可以更好地了解抗生素耐药性并创建可以分解塑料的酶的图像。

AI下一步可能染指的诺奖是?

在诺贝尔物理学和化学奖项颁授给AI领域科学家后,很多人开始担心,接下来会不会有更多学科奖项受到AI染指,例如诺贝尔的其他传统科学奖项,即诺贝尔生理学或医学奖?

事实上,医学研究一直是AI最重要的应用领域之一,许多研究都依赖AI进行分析和预测,比如病毒鉴定、分子建模、药物开发等任务。目前,已经有团队通过AI手段在探索科学问题上取得了重要突破。
另外,以Deepmind和OpenAI为代表的科技企业,也在加速开拓医疗市场。早些时候,DeepMind就发布了AlphaFold 3,该模型以前所未有的精确度,预测了所有已知蛋白质、DNA、RNA 和配体的结构和相互作用,有望开启AI细胞生物学新时代。
除了科研领域,还有人对诺贝尔文学奖感到发愁,是否也会被AI染指。依托大语言模型,当前用AI进行写作是一项常态化应用,不过,伴随而来的是AI写作与人类创作的区别。文学核心在于人类的创造力和个体表达,AI虽然能够模仿人类的语言和写作风格,但它缺乏真正的情感体验和创意过程。
不过,AI在辅助文学写作方面已经开始产生关联。今年年初,日本女作家Rie Kudan用ChatGPT协助创作的小说,一举拿下了日本顶级文学奖芥川奖。她在获奖感言中称,生成式AI帮助自己释放了潜力,她将AI视为灵感的来源,是自己创作过程中的伴侣。

人类科学V.S.人工智能,AI for Science是方向?

从现有AI技术水平看,AI和人类之间的关系是互补的,而非替代。AI可以作为科学研究的强大工具,帮助人类处理数据、模拟实验、预测结果等,但人类的直觉、创造性和决策能力仍不可被替代。

在这种趋势下,一种新科学研究范式孕育而生——AI for Science(人工智能驱动的科学研究)。它通过使用已知科学规律进行建模,同时挖掘海量数据规律,在计算机的强大算力加持下,对科学问题进行研究。
在中国科学院院士鄂维南院士看来,AI for Science包含三层内容:首先是将深度学习技术用于各个不同的场景,用于各个学科中的科研、技术创新、成果转化等;其次是利用AI来发现New Science;最后是Science of AI。他认为AI是一个强大的使能技术,但背后肯定有其科学原理,也就是说,AI会有相应的Science。
目前来看,AI for Science更倾向于AI辅助科研方向,不过即便如此,一系列挑战也随之而来。虽然AI辅助设计、AI增强检索、AI辅助研读、AI辅助创作等服务,大幅提升了科研工作的效率,但如若滥用AI技术也会带来侵犯他人知识产权、泄露个人隐私信息、编造虚假实验数据、快速炮制垃圾论文等诸多问题。
复旦大学计算机科学技术学院教授、上海市数据科学重点实验室主任肖仰华在接受媒体采访时表示,从科研本身来讲,目前的风险问题还是可控的。“当然我们有可能需要科学家们意识到AI也是会犯错的,不能对AI结果不加选择地盲目使用,它依赖于科学家的责任对结果进行一个评估评价。”

来源:周到上海       作者:姜欣愉