在大模型时代,人工智能算法的变革已经开始触及各行各业。GPT等大型模型的出现不仅整合了多个“日常小模型”,还将AI模型工具的使用普及至一般大众,使得自然语言交互变得更加触手可及。然而,大模型的高门槛和重资产特点给传统的科研范式带来了挑战。高校等学术机构在资源获取(尤其是算力和数据)上的限制,使其难以接触到业界所面临的“真正问题”。这造成了学术创新的中心从高校转向了以DeepMind和OpenAI为代表的新型研究机构,近年来真正有影响力的工作(如AlphaGo和GPT系列)均出自这些机构。另一方面,传统产学研模式转化效率很低,企业资助高校进行的前沿探索,能够助力公司业务发展的少之又少。一方面是因为双方视角的差异,企业的需求很难被理解,另一方面则是因为隐私和合规的原因,企业内部数据和算力很难共享给高校。
大模型时代的创新产学研合作模式
为了促进大模型领域的产学研结合,CCF、百川智能与英博数科一起,针对大模型研究门槛高、训练耗费大的问题,创立“组队合作”模式,从高校和研究机构遴选优秀课题组,由百川和英博研发团队保障数据、算力和工程上的全面支持。促进学界和业界之间的深度合作,达到降低大模型研究的门槛,推进我国自研大模型创新落地的目的。
新模式受到学术界广泛关注
CCF-百川-英博大模型基金(以下简称"百川英博基金")由中国计算机学会(以下简称CCF)和北京百川智能科技有限公司(以下简称百川)、北京英博数科科技有限公司(以下简称英博)共同发起,致力于面向海内外高校及科研院所的青年学者搭建产学研合作及学术交流的平台,打造中国大模型创新生态圈。
2023年CCF-百川-英博基金于9月19日正式启动,截至10月16日,CCF-百川-英博基金累计收到了98份的申请表,包括国内头部的985高校(清华,北大,中科院,中科大,复旦,上交,人大,北邮,北航,哈工大,中大等),同时还收到了中国香港以及新加坡等地大学的申请表。
CCF、百川智能和英博数科共同邀请了多位学术专家与行业代表共同组成了评审专家组,围绕大模型不同阶段、不同维度的技术,和不同领域、场景的结合应用等方面考察项目的创新性、可行性以及申请团队的学术水平和科研能力。经过三轮评审,最终确定对来自清华大学、北京大学、上海交通大学、复旦大学、中国人民大学、新加坡国立大学、中国香港城市大学等15个申请项目进行资助。最终获得资助的项目占总申请的15.3%,竞争之激烈远甚于机器学习领域顶级学术会议(ICML 2023接收率为 27.9%)。
多领域多方向项目通过评审
10月27日,在2023年CNCC期间(沈阳)举行的CCF产学合作发展论坛现场,2023年度CCF-百川-英博大模型基金获资助者揭晓,以下为本次“CCF-百川-英博大模型基金”获得资助的15个项目简介:
(按项目申报人姓名首字母拼音排序)
陈武辉:中山大学软件工程学院副教授,博导,主要研究领域为大规模AI训练推理与模型迭代演化的系统软件、区块链系统软件;承担了国家重点研发计划课题、国家自然科学基金面上和青年项目等多个国家级省部级项目,成果发表在EuroSys、VLDB、NDSS、SoCC、Infocom、IEEE TPDS、IEEE TC等知名会议和期刊上;曾获吴文俊人工智能自然科学二等奖、CCF B类会议IEEE ICPP 2020最佳论文亚军奖。
项目简介:“网-算-存”高效协同的大模型推理加速技术:立足于多模型多任务,充分利用集群带宽、内存、 算力的高效协同与调度,设计并实现针对大语言模型的网算存高效协同的高吞吐推理系统。
邓志杰:上海交通大学清源研究院助理教授,于清华大学计算机系取得学士(2017)和博士(2022)学位,研究方向为概率深度学习,在ICML、NeurIPS、ICLR、CVPR等发表学术论文20余篇,获英伟达先锋研究奖等荣誉,研究工作得到国家自然科学基金、上海市科技创新行动计划、山东省重点研发计划等项目的支持。
项目简介:大语言模型的贝叶斯偏好学习:将关于用户偏好的先验知识与观测数据相结合,利用概率准则建模不确定性,基于贝叶斯推断进行参数更新,实现大语言模型的高效偏好学习。
董胤蓬:清华大学助理研究员,主要研究方向为人工智能安全,先后发表TPAMI、IJCV、CVPR、NeurIPS等顶级国际期刊和会议论文四十余篇,曾获得CCF优博、清华大学优秀博士后、百度奖学金、微软学者奖学金等荣誉。
项目简介:聚焦大语言模型在恶意对抗样本攻击下的鲁棒性与安全性问题,通过高效对抗攻击算法挖掘大模型的安全漏洞,以评估模型的安全性。
窦志成:中国人民大学。从事信息检索研究与实践16年,探索个性化、生成式、对话式的新一代信息检索技术。
项目简介:通过检索拓展大模型的知识和能力边界。
桂韬:复旦大学。中国科协青年人才托举工程、上海市启明星、世界人工智能大会云帆奖“璀璨明星”,MOSS-RLHF负责人。
项目简介:大模型自主价值对齐的稳定泛化训练策略研究。
韩先培:中国科学院软件研究所研究员,主要研究自然语言理解、大模型及知识图谱,入选国家优青、中国科协青托及北京智源青年科学家,获中国中文信息学会汉王青年创新奖一等奖及科学技术奖一等奖。
项目简介:有效提升大模型的长窗口上下文信息利用能力,构建长窗口信息利用的能力评估体系。
吉炜:新加坡国立大学博士后研究员,主要研究方向是多模态理解、生成、检索、推荐与预训练大模型,在多领域顶级会议和期刊发表论文30余篇,曾获CVPR2022最佳论文候选。
项目简介:利用预训练大模型来实现游戏垂域的多模态生成。
刘康:中国科学院自动化研究所研究员,博士生导师,在自然语言处理、知识工程等领域国际重要会议和期刊发表多篇学术论文,Google Scholar引用17000余次,获得COLING 2014最佳论文奖、Google Focused Research Award、北京市科学技术进步一等奖以及国家自然科学基金委优秀青年基金。
联合申请人:曹鹏飞,中国科学院自动化研究所助理研究员,研究方向为自然语言处理、知识图谱、预训练语言模型,在AAAI、ACL、EMNLP等人工智能与自然语言处理国际会议上发表论文多篇。博士期间曾获中国科学院院长奖学金、国家奖学金、攀登奖学金、北京市优秀毕业生等荣誉。
项目简介:聚焦大模型的认知能力评估,尝试从已有知识的记忆、新知识的学习能力以及综合知识运用和推理能力等多个维度评估大模型的认知能力,包括构建系统性多维度大模型认知能力评测体系,以及相应的评测数据集、评测手段和指标。
刘鹏飞:上海交通大学生成式人工智能研究组负责人,研究方向为大模型的训练与价值对齐。谷歌学术引用8900余次,提示工程概念最早提出者之一。
项目简介:大模型的数学推理能力研究。
王奕森:北京大学助理教授、博士生导师,主要研究方向为机器学习理论和算法,重点关注AI safety、自监督学习理论等。主持科技部科技创新2030新一代人工智能重大项目课题、基金委下一代人工智能重大研究计划等项目,获得北京市科技新星、ACM China北京新星等荣誉。发表机器学习三大顶会ICML/NeurIPS/ICLR论文50余篇,多篇获评Oral或Spotlight,获得ECML 2021最佳论文奖、ICML 2021 Adv Workshop最佳论文银奖、CVPR 2021对抗攻防竞赛防御排行榜第一、GeekPwn 2020 AI对抗攻防竞赛冠军等。
项目简介:研究大模型的高效安全对齐方法,保障大模型输出内容的安全,重点关注不当内容生成、版权盗用、隐私泄露等问题。
严睿:中国人民大学长聘副教授,长期专注于自然语言处理与智能人机对话技术研究,获得国家高层次青年人才计划支持。
项目简介:深度探索开放对话领域的对话角色代理研究。
叶庆:华中科技大学管理学博士,华中科技大学同济医学院附属同济医院高级工程师,中国香港中文大学(深圳)校外导师,长期从事医疗大数据、机器学习、电子健康等研究工作,在Internet Research, Information Processing&Management, Electronic Markets, Journal of Medical Systems等期刊发表论文20余篇,主持参与科技部国家重点研发计划子课题,国家自然科学基金,湖北省自科重点项目、教育部人文社会科学等项目十余项。
项目简介:聚焦慢病管理领域,研究知识图谱与大模型融合的知识结构与检索方法,探索大模型知识增强在慢病个性化健康管理领域的创新应用。
张倬胜:上海交通大学长聘教轨助理教授,曾获WAIC 2023云帆奖、全球AI 华人百强学术新星,代表成果为自动化与多模态思维链推理、多模态动作链自主智能体,单项GitHub开源成果获得超过3.5K星标。
项目简介:基于大语言模型的自主智能体研究,致力于提升大语言模型智能体的环境感知、推理能力和安全性。
赵翔宇:香港城市大学数据科学学院助理教授,曾获ICDM'21和ICDM'22最佳排名论文,同时是多项CCF研究基金获奖者,入选全球AI华人新星百强。团队研发算法已在多家互联网企业落地应用。
项目简介:专注于开发一款多任务、多模态医学大模型,针对于目前医疗领域中的多任务处理和信息整合问题,使用多任务微调与知识图谱增强方法,实现高效、准确的医疗决策支持。
赵鑫:中国人民大学教授,长期从事信息检索与自然语言处理的相关研究。
项目简介:聚焦预训练中的模型能力学习与预测,旨在高效提升大模型的能力。
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。
责任编辑:kj005
文章投诉热线:182 3641 3660 投诉邮箱:7983347 16@qq.com