今年上半年大模型产品和概念火出圈,也引发了一系列问题和担忧。
10月19日,在2023第六届SSC网络安全大会上,西安电子科技大学教授王皓表示:“大模型迅速发展所暴露出的安全问题,在做好监管亟的同时,要加强对于网络安全人才的培养”。
王皓在第六届SSC网络安全大会以“大模型时代的数字安全法治人才培养初探讨”为题演讲
2022年底chatGPT的爆发,带来了巨大的技术变革,在国内外引起了广泛讨论以及关注,国际上各类通用大模型迅速相继涌现。发展至今通用大模型已经突破自然语言屏障,升华为多模态的生成式人工智能工具。能够真正像人类一样来聊天、交流,完成撰写邮件、文案、代码、论文等复杂任务。目前,国内外众多网络科技公司纷纷推出了自己的通用大模型,如华为的盘古系统,讯飞的星火系列以及百度的文心一言。
大模型由于发展时间短,信息保护比较脆弱,容易导致信息泄露。此外,别有用心的群体或个人设计了“邪恶大模型”,通过创建破解工具、钓鱼邮件、甚至恶意的攻击软件,进行一些危害个人或者社会的事情。”王皓说道。
目前,全球范围都已意识到大模型迅速发展所暴露出的问题。我国上半年出台了《生成式人工智能服务管理暂行办法》,欧洲、美国也颁布了一些初级的协议、权力法案,开始加强对大模型的约束。
除了通过立法加强AI监管、通过技术进步不断完善大模型外,我们也要加强对于网络安全人才的培养。王皓表示,“西安电子科技大学通过构建‘安全人才’培养与‘人才安全’培育双促进、双保障格局,加强信息安全学科建设、加快信息安全人才培养”。
责任编辑:kj005
文章投诉热线:156 0057 2229 投诉邮箱:29132 36@qq.com