构建未来,共话AI基础设施|2024WAIC“探索下一代大模型的基础研究”论坛成功举办
上海,7月4日 —— 在2024世界人工智能大会论坛上,国内外院士、专家学者齐聚“超越边界:探索下一代大模型的基础研究”论坛
上海,7月4日 —— 在2024世界人工智能大会论坛上,国内外院士、专家学者齐聚“超越边界:探索下一代大模型的基础研究”论坛,共同探讨“AI for Science 基础设施建设”和“下一代通用人工智能方法”两大前沿技术话题。本次论坛由世界人工智能大会组委会办公室主办,上海算法创新研究院和北京科学智能研究院承办,上海市人工智能行业协会提供支持。论坛旨在搭建推动下一代人工智能技术交流协作的平台,推动基础设施建设,激发创新效能。
共建AI for Science基础设施,迈向平台科研时代
“AI for Science在材料、生命科学、能源化工等领域落地成果的不断涌现,让我们看到其带来的巨大前景。但AI for Science带来的不仅仅是点状的突破,而是系统性地带动科学研究基础设施的建设,推进迈向“平台科研”时代。”论坛伊始,中国科学院院士鄂维南为大会带来了引导发言。他深入分析了AI for Science目前所处的发展阶段,以及推动AI for Science的基础设施建设的重要性,并设计了“四梁N柱”架构,鄂院士提到,“回顾科学研究的基本资源和基本方法,无论哪个科研方向,都少不了基本原理、实验、文献、算力的支撑。因此,构建科学研究的通用基础平台,即基本原理和数据驱动的模型算法与软件、替代文献的数据库与知识库、高效率、高精度的实验表征方法、高度整合的算力平台,可以推动共性问题的解决。
AI的方法大大提升了我们的科研能力,但是离真正解决问题还有距离,这剩下的“最后一公里”该如何打通?在会上这场重磅嘉宾阵容的圆桌对话里,中国科学院院士鄂维南、龚新高、丁洪,美国国家工程院院士、香港大学工程学院院长David J. Srolovitz,上海科技大学副教务长刘志,上海大学教授刘轶,北京应用物理与计算数学研究所研究员王涵在圆桌对话中对此进行了探讨,从构建科学大模型、科学大装置等基础设施方面表达了看法,并共识了一个富有启发性的观点:“AI for Science的基础设施建设需要跨学科的合作,这是实现科学突破的关键。我们应聚焦产业关键问题,赋能工业应用的实际场景。”那么,我们采取什么样的道路才能实现真正的科学大模型呢?专家们指出,“在聚焦算力和算法的同时,要重点关注数据,而这些数据不单单是计算数据,还有来自于实验所产生的数据,从这些数据中诞生新的模型。而验证这些数据的准确性,同样需要AI的赋能。”
在共性平台的基础上,围绕具体应用(如生物医药、新材料、电池等),可高效率地推动对具体问题的研究。材料是AI for Science的重要应用场景之一。“AI for Materials”(AI4M)已成为材料科学研究与开发的重要组成部分,加深了我们对成分-结构-性能关系的理解,并促进了具有目标性能的材料设计。“AI技术能够在全周期加速材料研发,提高材料研发的成功率”。会上,美国国家工程院院士、香港大学工程学院院长David J. Srolovitz从AI与材料科学的结合与应用展开了报告, “诸如深度势能等AI for Science代表方法在材料研究方面的广泛应用,已经推动实现了第一性原理精度的大规模模拟。”报告内容再次展示了人工智能应用在科学研究中的强大能力,以及AI赋能的原子间作用势能研究,“整合了提示词工程的大语言模型在材料发现和设计领域已经展现了卓越的性能,它能够解析并理解材料成分、结构、以及性质之间的复杂关系。”
学科的交叉可以碰撞出新的火花,对 AI for Science基础设施建设的创新思路也有新的启迪。“AI智能体引入,将为科研人员赋能,激发创新灵感,大幅缩短研究周期,填补研发人员的短板,让科学家有工程思维,工程师有产品思维。从而减少每个研发步骤之间的隔阂。同样,材料科学也为AI带来了新的挑战,AI硬件问题的解决也需要材料科学推动。”中国科学院院士、北京大学副校长、北京大学博雅讲席教授张锦院士提到。
我们欣喜地看到,业内已经有产品化与平台化的成果产出,OpenLAM就是“平台科研”与“开源共建”的一个典型代表。“语言数据的爆炸性增长孕育了大语言模型,同样地,微观尺度数据的累积也催生了一种创新的模型——大原子模型。”北京科学智能研究院院长、深势科技创始人张林峰表示“这一模型的诞生,将带来仿真设计在时空尺度与覆盖范围的量级式提升,实验表征信号将能被更好地解析,它将成为原子级生产制造的重要组成部分。”OpenLAM计划已于2023年底正式发起,北京科学智能研究院协同DeepModeling开源社区以及30多家共建单位,并邀请了原子级建模、表征、制造以及AI产业的多位院士、专家组成顾问团,共同推动构建大原子模型的“社区模式”。秉承“广泛覆盖、谨慎评估、开源开放、开箱即用”的开发理念,本论坛上最新发布了在合金、动态催化、分子反应、药物小分子、固态电池、半导体、高温超导7个领域模型解决方案,这些模型均以开放社区的形式发展而来,并在科学智能广场可下载。“实验科学家的语言和视角还未与AI技术和数据库形成有效的连接,为此我们开发了‘晶体造句’APP,希望更多实验科学家通过这个APP的窗口,来发现并合成更多人们尚未充分探索的材料。”
AI for Science的各项基础设施正在全面落地建设,不仅仅是OpenLAM,本次论坛还同期发布了AI for Science的另一重要基础设施,替代文献的数据库和知识库的优秀实践产品——Science Navigator 1.0。当前,对学科交叉检索、原文内容溯源、科研数据解读的需求已经远远超出了传统文献检索工具的能力范围,新一代科研文献开放平台Science Navigator应运而生。“Science Navigator 强大的自然语言对话式检索能力,能够迅速定位到科研工作者所需的信息,且回答可溯源到文献原文。”北京科学智能研究院副院长李鑫宇介绍道,“AI向量数据库叠加大语言模型让训练和推理成本大幅降低,等效实现3-6倍参数量模型效果。Science Navigator 1.0不仅仅是一个为科研工作者量身打造的AI平台,它更是一个全新的科研生态系统。Science Navigator开放了绝大部分能力的API接口,使用者可以在这个平台的基础上构建自己的应用和智能体,以满足科研复杂的个性需求,释放更多的时间精力在解决关键问题与创新思考上。”
专家云集,共话下一代人工智能方法路在何方
从基础理论到通用算法,AI技术的快速发展不仅改写了范式,也正在将万物智联的未来视野变为现实。
“虽然目前人工智能算法、大模型已经取得了突出的进步,但是我们还需要继续探索新的技术路线,以适合我国的实际发展需要。”面向下一代通用人工智能方法这一话题,引发了参会嘉宾们的思考。为此,中国科学院院士鄂维南、中国人民大学高瓴人工智能学院执行院长文继荣、复旦大学教授邱锡鹏、华为云大数据与人工智能总裁尤鹏、墨奇科技联合创始人/CTO汤林鹏、上海算法创新研究院研究员杨泓康展开了激烈讨论,参会嘉宾认为,“必须且亟需建立人工智能的底层能力,探索出一条更加可持续、能够解决当前大规模能源资源消耗问题的通用人工智能方法。也有嘉宾指出,“大模型的完善要从优化知识存储能力和提高知识使用效率双管齐下,催生模型”慢思考“能力。当模型有了解决复杂问题的能力,可能会带来一系列的变化,比如在科研和技术的加速,新材料的发现等等,值得我们的持续关注。”与会嘉宾在此共识,“要实现下一代通用人工智能,需要在算力资源、数据资源、AI数据库能力、下一代模型和人才资源等方面久久为功。”人工智能方法还是有很多没有被探索,应该与场景去结合,从应用到底层技术进行创新。
针对当下通用人工智能的技术热点与未来人工智能发展的必然趋势,论坛嘉宾分享了他们独到的技术见解。“生成式AI或者扩散模型远远不只于生成视频或者图片,使其应用于生命科学和材料科学,如蛋白质结构,RNA序列研究,晶体结构的设计等。”普林斯顿大学教授、普林斯顿人工智能创新中心主任王梦迪分享道。“不管是生成式AI,扩散模型,还是大语言模型,让它变得更有用,更有意思,和人类的价值对齐,我认为我们需要做到的事情是让这些模型可控,这是通向AGI的必经之路。”
我们当前正处在一波人工智能真实场景应用的浪潮之中,也为支持人工智能的硬件发展提出了多功耗,多场景覆盖等更高的要求。在算力方面,未来我们期望的AI,不仅是解决特定问题的工具,更是能够跨领域学习和创新的合作伙伴。华为昇腾计算业务CTO周斌以“大模型算力基础设施的挑战和发展探讨”为主线展开报告,分享了他的观点。“构建弹性灵活的算力基础设施,并发展对应的数据软件框架与优化算法,是确保下一代人工智能发展至关重要的基础环节。业界主流模型从千亿稠密到万亿稀疏,并逐步走向百万级超长序列和多模态,大规模算力成为支撑高质量大模型创新落地的关键基础。”
那么下一代通用人工智能模型是什么样的?论坛上的专家们也给出了各自的见解。其中之一是类比人脑记忆与思考方式的记忆分层大模型。目前记忆分层的大模型已经在上海算法创新研究院实现。会上,上海算法创新研究院大模型中心负责人熊飞宇发布了最新科研成果——忆³大模型(Memory³),该模型创新地引入了显性记忆机制,显著提高了性能并降低了训练与推理成本。忆³在传统的模型参数(隐性记忆)与上下文键值(工作记忆)之外,增加了第三种形式的记忆——显性记忆。模型无需训练即可将文本转换为显性记忆,并在推理时快速且稀疏地使用记忆。通过外部化模型存储的知识,显性记忆减轻了模型参数的负担,进而提高了模型的参数效率与训练效率,使基准测试上忆³能够实现约3倍参数量模型的性能。基于忆³架构的AI搜索引擎,利用显性记忆的快速读写,使回答的时效性更强,准确率更高,内容更完整,还能够根据用户的反馈实时更新和优化答案。隐性记忆使搜索引擎能够理解复杂的上下文关系,提供更精准和个性化的搜索结果。基于忆³的特性,这款AI搜索引擎不仅提高了用户的搜索体验,还在信息检索领域树立了新的标杆。此外,忆³已在金融、媒体等行业落地应用。
随着以深度学习、大模型为代表的 AI 技术迅速发展,图像、视频、文本、语音等的非结构化数据处理的需求和能力也有了爆发式的增长。高维向量是非结构化数据的统一语义表征,但主流的向量数据库存在通用数据管理能力不足,面对海量数据时性能、可扩展性不佳的问题,难以应对大规模复杂 AI 应用的需求,而 MyScale 的初衷就是克服这些问题并成为 AI 时代的数据底座。墨奇科技联合创始人/CTO汤林鹏介绍道,“MyScale 是国际上首个专为大规模结构化和非结构化数据处理设计的 AI 数据库,支持海量结构化、向量、文本等各类异构数据的高效存储和联合查询,综合性能比国内外其他产品提高 4-10 倍。在实际生产中,MyScale AI 数据库成功扮演了大模型+大数据双轮驱动下的统一 AI 数据底座。在金融文档分析、科研文献智能问答分析、企业私域知识管理、工业/制造业智能化、零售行业客户服务、人力资源行业智能化、法律行业智能化等应用场景中均帮助客户创造了巨大价值,加速了大模型和场景数据结合的技术创新和应用落地。”
此外,本次论坛嘉宾也在人工智能人才培养上提出了建议与期待。目前,我国人工智能领域的人才需求量巨大,亟需打造体系化、高层次的人工智能和基础研究人才培养平台,培养使用战略科学家,支持青年科技人才挑大梁、担重任,加快凝聚一批跨学科发展研发队伍,鼓励更多研究人员投身交叉科学研究和基础研究。
未来,从现在出发。在不断探索人工智能边界的道路上,培植下一代通用人工智能方法、完善AI for Science的基础设施极为关键,它将推动科技向前发展,解锁以前难以想象的创新可能性。
最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!
硬科技产业媒体
关注技术驱动创新