谷歌Deepmind发布!《AI for Science的黄金时代已经到来》
一应用机会
下文列举了人工智能在科学研究中的五个应用机会:
(一)知识
为了取得新发现,科学家需要掌握一个不断扩展且日益专业化的知识体系,这解释了为何作出变革性发现的科学家越来越偏向年长、跨学科,并集中在顶尖大学。尽管已有创新如预印本服务器,科学家们仍大多通过晦涩难懂、充满专业术语的论文分享研究成果,这可能阻碍决策者、企业和公众对其工作的兴趣。如今,科学家们已经开始使用基于大语言模型的科学助手,例如在一天内通过Gemini大语言模型从20万篇论文中提取并筛选最相关的数据。未来,随着大语言模型的微调和改进,科学家们将能够更高效地整合和传播知识。
(二)数据
人工智能可以通过多种方式为科学研究的数据收集提供帮助。例如,它可以减少DNA测序、检测样本中的细胞类型或捕捉动物声音时产生的噪音和错误,从而提高现有数据收集的准确性。科学家还可以利用大语言模型在图像、视频和音频之间进行操作的能力,提取科学出版物、档案以及教学视频等不太明显的资源中隐藏的非结构化科学数据,并将其转换为结构化数据集。人工智能还可以帮助为科学数据添加注释,提供科学家使用数据所需的支持信息。
(三)实验
许多科学实验成本高昂、过程复杂且进展缓慢。然而,人工智能可以帮助模拟实验,并更有效地利用后续的实验时间。例如,普通人的DNA中存在9000多个错义变异,即单个字母的替换。这些基因变异大多数是良性的,但有些会破坏蛋白质的功能,导致囊性纤维化等罕见遗传疾病以及癌症等常见疾病。测试这些变异影响的物理实验通常仅限于单个蛋白质。Deepmind的AlphaMissense模型将7100万个潜在的人类错义变异中的89%归类为可能有害或无害,使科学家能够将实验的重点放在最有可能导致疾病的变异上。
(四)模型
在1960年,诺贝尔奖得主尤金·维格纳(Eugene Wigner)赞叹数学方程在建模自然现象(如行星运动)中的有效性。然而,过去半个世纪中,依赖方程组的模型难以捕捉生物学、经济学、天气等领域复杂系统的全貌,这给科学家带来了预测和控制的挑战。人工智能通过摄取更多数据并学习其中的模式,能够更准确地建模这些复杂系统。例如,现代天气预报依赖于传统的物理方程式,虽然有用但不完美,而人工智能在准确性和速度上有所超越。在很多情况下,人工智能将与传统建模方法互补,而非取而代之。
(五)解决方案
许多重要科学问题有大量潜在解决方案。例如,生物学家和化学家在设计药物或新材料时,可能面临10^60种分子选项。类似的,数学问题的证明、计算任务或计算机芯片架构也有庞大的搜索空间。传统方法依赖直觉、试错或计算,但难以有效探索这些庞大的空间。人工智能能够开辟新的搜索领域,并更快速地集中在最有可能可行的解决方案上。
二要素
(一)问题选择
科学进展依赖于能够识别一个重要问题并提出解决它的正确思路。许多时候,一个问题在理论上适合人工智能,但由于实际条件尚未到位,因此需要暂时搁置。除了选择正确的问题,明确其合适的难度层次也很重要。如果选择一个过于困难的问题,就无法产生足够的反馈或数据来推动进展。要做到这一点,需要结合直觉判断和不断尝试的实践过程。
(二)评估
科学家们通过基准测试、指标和竞赛等评估方法来衡量人工智能模型的科学能力。如果这些评估方法运用得当,可以用于跟踪进展、激励方法创新,并激发研究人员对科学问题的兴趣。通常情况下,需要多种评估方法来综合衡量模型的表现。最具影响力的“科学中的人工智能”评估方法通常是由社区主导或认可的。例如,“蛋白质结构预测关键评估”(CASP)竞赛。该竞赛由John Moult教授和Krzysztof Fidelis教授于1994年创立,每两年举办一次,挑战研究团队将其蛋白质结构预测模型的准确性与真实的、未公开的实验蛋白质结构进行对比。CASP竞赛不仅成为了一个独特的全球科研社区,也成为了推动研究进步的催化剂。社区认可的需求也支持了发布基准测试的必要性,以便研究人员能够使用、评估和改进这些测试。此外,科学家、人工智能实验室和政策制定者还应探索评估人工智能模型科学能力的新方式,比如建立新的第三方评估机构、举办竞赛,以及让科学家更自由地对人工智能模型能力进行开放性探索。
(三)计算
多项政府审查已认识到计算资源在推动人工智能、科学及更广泛经济领域发展的重要性。人工智能实验室和政策制定者应采取务实的、长期的视角,考虑计算需求如何因人工智能模型和具体应用场景而异,以及与不依赖人工智能的科学进步方法相比的效益。此外,人工智能实验室和政策制定者需要通过实证手段跟踪计算资源的使用情况,了解其演变趋势,并预测这些趋势对未来需求的影响。
(四)数据
数据与计算能力一样,是人工智能科学研究的关键基础设施,需要持续开发和更新。虽然自上而下的工作能提供重要数据集,如美国奥巴马政府发起的材料基因组计划(Materials Genome Initiative)。但同时,自下而上的工作也是必要的,许多突破依赖于自然生成的数据,这些数据通常来自个人或小团队的努力,例如,编程语言Lean的开发。
(五)组织设计
学术界和工业界倾向于从两个极端进行科学研究。学术界往往更注重自下而上,而工业实验室则更注重自上而下。最近,涌现出一批新的科研机构,这些新机构的核心理念是希望更好地将自上而下的协调和关注与自下而上的科学家赋权相结合。同样的,在个人研究工作中,保持这种平衡也很重要。
(六)跨学科性
解决许多重大科学问题需要跨学科合作,但实践者往往难以从多学科团队转向真正的跨学科合作,为了培养这种合作,团队应激励成员专注于解决问题,而非作者署名。同时,实现跨学科合作还需创造角色和职业路径,帮助融合不同学科的人才。谷歌Deepmind鼓励项目经理促进团队协作并建立跨项目联系。最终目标是营造一种鼓励好奇心和谦逊的文化,让各学科的实践者能够自由地提出和批评彼此的工作。
(七)采用
为了让科学家信任并使用人工智能科学模型,必须明确其使用方式和不确定性。例如,在AlphaFold人工智能模型中,团队开发了不确定性度量指标,帮助用户理解模型对蛋白质结构预测的准确性,并通过直观的可视化方式呈现。同时,Deepmind与欧洲生物信息研究所合作,开发了培训模块,帮助科学家更好地理解如何使用这些工具。
(八)伙伴关系
人工智能科学工作需要各种专业知识,因此迫切需要公共和私营机构之间建立正式和非正式的伙伴关系。从创建数据集到共享研究成果,这些伙伴关系在整个项目周期中都是必不可少的。特别是,人工智能实验室通常需要科学家来帮助评估人工智能模型的输出结果。
(九)安全与责任
科学家们对于人工智能模型对科学及社会的潜在益处和风险常常存在分歧。开展伦理和安全评估可以帮助厘清讨论框架,支持科学家决定是否以及如何开发某个人工智能模型。评估的起点是识别重要的影响领域,同时还需对其可能影响的时间范围以及人工智能在实现这些影响中的重要程度进行评估。例如,对于人工智能与气候变化的讨论,担忧者通常关注训练大型人工智能模型所需的即时能耗,而支持者则关注那些较为间接、不那么明确但潜在规模更大的未来人工智能应用对气候的积极作用。
三面临的风险挑战
(一)创造力
科学创造力指的是创造既新颖又有用的东西。目前,一些科学家担心,人工智能系统往往专注于特定任务,依赖它们可能会忽视偶然的突破。还有人担心,如果科学家普遍使用人工智能,可能导致研究输出趋于同质化。为缓解上述这些风险,科学家可以通过个性化调整人工智能的使用方式,促进自己的创造力。例如,通过微调大语言模型来提出个性化的研究思路,或帮助科学家引导出自己的创意。
(二)可靠性
可靠性指科学家能依赖彼此的研究成果,确保其不是偶然或错误的结果。目前,科学的可靠性面临一系列挑战,如统计错误和科学欺诈问题。一些科学家担心人工智能会加剧这些问题,尤其是大语言模型可能产生虚假或误导性的输出。还有人担心大语言模型会导致大量低质量论文的产生。为应对这些问题,科研界正在推动人工智能在事实核查方面的研究,旨在通过验证模型输出的准确性,确保其生成的内容更加可靠。
(三)理解
科学家担心,人工智能依赖模式匹配而忽视深入理解,可能会削弱科学进步。现代深度学习方法被认为缺乏理论基础,且难以解释预测结果。然而,许多人工智能模型实际上可以提供可解释的输出。例如,FunSearch方法能输出代码,解释解决方案的过程。目前,研究人员正在开发更多可解释性技术,帮助揭示人工智能的工作原理。
(四)公平
科学界的不平等表现为科学工作者构成、研究问题、数据模型及其带来的影响。例如,位于高收入城市的少数实验室占据了科学产出的绝大部分;疾病相关基因研究依赖欧洲血统数据,而热带疾病的研究则资金匮乏。女性科学家仍仅占33%,特别是有色人种女性在临床试验中代表性不足。一些科学家担心,人工智能的普及可能加剧这些不平等。然而,人工智能也有利于减少这些不平等。例如,低成本的人工智能模型可以帮助更多来自弱势群体的科学家研究传统上被忽视的问题。通过处理更多数据,人工智能模型可能发现更普遍的模式,以减少偏见。
(五)环境
近年来,越来越多的科学家对人工智能可能对环境产生的影响表示担忧。一种考虑这些影响的方式是生命周期方法,既包括直接影响,也包括间接影响。直接影响包括构建和运行数据中心及设备产生的排放。目前尚没有全面估算人工智能的所有直接排放,但2021年的估计显示,云计算和超大规模数据中心仅占全球排放的0.1-0.2%。
然而,人工智能对排放的直接影响,无论是正面还是负面,可能都微不足道,相比之下,人工智能驱动的应用对排放的间接影响将更为重要。科学中使用人工智能为减少排放提供了三大机会。首先,人工智能、数学和计算机科学的交汇点的进展可能大幅提高互联网的效率,随着越来越多的经济活动转移到线上,这有助于抵消这些领域的排放。其次,人工智能可以加速可再生能源的开发与应用。最后,随着全球变暖,人工智能可以帮助更好地应对极端天气事件。
四政策响应
(一)定义科学领域人工智能的“希尔伯特问题”
科学进步的基础在于选择正确的问题。1900年,德国数学家大卫·希尔伯特提出了23个未解决的问题,这对20世纪数学的发展方向产生了深远影响。借助即将举行的巴黎人工智能行动峰会等国际活动,政策制定者、人工智能实验室和科学资助机构可以发起一项公开倡议,邀请科学家和技术专家识别出最重要的受人工智能驱动的科学问题,并通过一个新的全球基金推动这些问题的研究进展。
提交的方案应明确说明为何该问题重要、为何适合现代人工智能系统、为何可能被忽视、现存的数据瓶颈,以及如何评估短期技术进展。最佳方案可以成为新的科学竞赛的基础,科学家通过人工智能竞相解决这些问题,竞赛提供新的数据集、评估方法和竞争性基准。此外,科学领域人工智能的“希尔伯特问题”倡议还可以为国际科学合作和资助提供一个重要的焦点,并激励新一代跨学科科学家识别并解决受人工智能驱动的问题。
(二)让科学家可读懂世界
大多数科学数据尚未被收集、部分缺失、未整理或难以获取,导致其无法用于训练人工智能模型。为此,政策制定者可以建立一个国际性的“人工智能科学数据观测站”网络,以解决这些问题。
这些观测站应得到长期支持,负责开展快速的“人工智能科学数据盘点”。专家团队将针对优先学科和应用领域绘制数据状态图,识别已有数据集的质量提升空间,以及未开发或利用不足的数据集。
为了确保这些分析转化为实际行动,政策制定者应指定并赋予机构解决数据盘点结果的责任。这些观测站还可以评估新数据库的创建,包括确保对长期存储、维护和激励机制的充分考虑。此外,政策制定者还可以通过确保公共资助的研究默认公开,赋能科学家利用大语言模型创建和改进他们自己的数据集。
(三)将人工智能视为下一个科学工具
过去半个世纪,科学技术的增长加剧了大多数科学家与技术的距离。许多技术是科学的产物,但能有效开发和使用这些技术的科学家比例却越来越小。眼下的紧迫需求是为现有科学家和研究领导者资助和激励大量短期、战术性的人工智能培训项目和奖学金。政策制定者可通过明确目标来激励这些努力,例如确保每位研究生都能获得使用人工智能的入门课程,与基础统计学课程的普及方式相似。培训需求因学科和个人背景的不同而有所差异,课程可涵盖从如何可靠地使用大语言模型处理日常研究任务的基础课程,到在科学数据上微调人工智能模型的高级课程,以及如何解决复杂挑战(如评估用于测试模型性能的数据是否无意中“泄露”到训练数据中)。
政策制定者还需迅速实施长期计划,确保下一代科学家具备所需技能。这包括在各级科学教育中主流化和深化人工智能培训与技能发展。例如,中学科学课程需让学生早期接触人工智能的影响,而大学生则需获取新型跨学科人工智能科学学位。此外,还可设立专项奖学金为在国际科学奥林匹克竞赛中表现卓越但缺乏经济支持的高中生提供深造机会,尤其是来自弱势群体的学生。
(四)收集证据并尝试新的科学组织方式
科学家使用人工智能的速度正在迅速增长,但政策制定者对谁在最有效地使用它、如何使用以及有哪些障碍正在阻碍其他人的使用,知之甚少。这一证据空白阻碍了识别最佳的“AI for Science”政策并有效地加以实施。传统上,这类问题的答案往往来自经济学或创新研究等领域,但研究结果可能需要多年才能得出。目前,Deepmind正在通过引文数据分析、访谈和社区互动,了解科学家如何使用Deepmind的模型。这一证据基础将为政策制定者提供制定政策的依据,帮助他们预测人工智能如何改变科学与社会,以及如何优化科学激励机制设计。
人工智能的兴起为试验新的机构类型提供了有力推动力,从那些具有更多自由度、能够进行高风险高回报研究的机构,到旨在解决特定瓶颈的聚焦研究机构;从优先领域(如气候变化或粮食安全)的跨学科人工智能科学研究机构,到人们尚未想象的全新类型的机构。那些更快进行试验的人,将最有可能在新一轮黄金时代的发现中受益。
评论 (0人参与)
最新评论