“原来的AIoT只是垂直AI(人工智能),不是通用AI,经过大模型赋能的AIoT才是‘真AI’。”近日,三六零(以下称“360”)智慧生活集团举办视觉大模型及AI硬件新品发布会,推出了360智脑·视觉大模型及多款AI硬件新品,并宣布360智慧生活正式进军SMB(中小型企业)市场,实现了从家庭场景到企业商用的跨越。360集团创始人周鸿祎认为,大模型开启AIoT新时代,将带来一场新工业革命。
【资料图】
当前,随着基于大模型的AI工具快速发展,我国AI大模型多场景应用加快落地,产学研协作推进科技成果转化也为大模型应用构建了坚实基础。在AI大模型发展热潮中,如何跨越大模型发展难点?怎样破解人工智能安全新问题?如何提升网络数据人工智能安全治理水平?近日,记者采访了360集团创始人周鸿祎。
记者:当前大模型的短板在哪?解决大模型纠错能力的关键点是什么?
周鸿祎:大模型与搜索不一样,搜索是把知识简单复制下来,而大模型则试图去理解知识的范式,但知识本身的细节丢失了很多。如果模糊的知识应用于法律、教育、医疗或事务性工作中,“知识模糊”会成为一个严重的问题。
解决“知识模糊”的一个重要工具是搜索引擎。所以,我们正在将搜索引擎变成“知识库”。也就是说,涉及到知识准确性的问题时,可以通过搜索引擎对大模型的答案进行验证和校正。同时,搜索引擎还可以解决时效性问题,因为大模型训练有截止日期,过了截止日期的知识就没有再训练进去,搜索引擎即可作为补充。所以,大语言模型并不能替代搜索引擎,它的搜索能力是相对增强。
解决大模型纠错能力问题的关键点,在于与搜索引擎革命性的结合。大模型可能需要与搜索引擎更紧密地结合,一方面可以利用搜索引擎来校验知识,另一方面可以借助大语言模型的生成能力使搜索更加智能、更加好用。
记者:现在业界普遍认为,500亿至600亿参数是大模型“智能涌现”的门槛。“360智脑”在业界是什么样的水平?
周鸿祎:所谓的涌现,目前行业对参数规模的看法不一致。也有新的研究认为,涌现与参数规模大小没有关系,而与预训练的数据和训练方法有很大关系。目前的中文数据普遍缺乏更高质量的知识,所以必须补充大量的英文高质量素材。有些研究也证明,要用科学论文、物理课本等比较高深的书籍作预训练的教材,更有可能产生涌现的能力。
一种通用大模型或许在逻辑推理、生成式方面训练比较强,但可能在数学等方面训练不够,在某些领域的能力就会弱一些。实际上,各类大模型有着类似的基础,决定大模型能力的因素,主要是对其进行预训练的数据,相当于“灌”了什么知识进去,以及用户监督下的微调,相当于学习了例题。
“360智脑”在几项评测中的综合得分比较靠前,但也反映出来了弱项,需要针对弱项进行训练数据的增强和训练方法的改善。我认为,“360智脑”有两个优势——在训练数据方面,借助360搜索积累了很多高质量训练数据;我们通过搜索引擎实现知识增强和时效增强,可以部分避免大模型常见的“幻觉问题”。
记者:现在大模型主要应用是客户端的对话演示,未来是否会越来越同质化?
周鸿祎:我认为不会。在客户端,各大互联网平台都有自己的固有场景,会通过自己的大模型结合占用。但是,在增量的场景中,大模型比一般的娱乐产品的使用难度要高,很多人也不一定有使用大模型获取知识的动力。因此,大模型本身的定位还是生产力工具。除企业和政府的专有大模型外,各行各业可能会有自己的大模型。即在通用大模型的底座之上,训练行业独有的知识。
谷歌公司曾预言,将来不会只有一个在云端的大模型,而会有不同层次的大模型,有的模型部署在电脑上,有的模型部署在手机上,还有一些模型的规模不一定很大,可以用在行业的专业领域中。比如,专门写严谨的法律文书的大模型,就不要求能作诗、画画。
事实上,目前很多企业都希望有一个“更懂自己”的大模型,这里面有专有的知识、专有的部署。所以,大模型的场景是非常多的,很多中小企业愿意为AI工具付费。如果某个人工智能工具真的做到了能够解决用户的痛点和刚需,那么收费是有可能的。
记者:在AI的1.0时代就有垂直行业的人工智能技术。那么,在AI的2.0时代,大模型能否解决人工智能技术难落地应用问题?
周鸿祎:AI的1.0时代基本上是从零开始做专业知识的培训。而在现在的阶段,我们所谓做行业的大模型,是用一个已经在互联网上接受通识教育和专业知识训练的大模型,它具有对一般常用知识的理解。在这个基础上再来训练医学知识、法律知识等垂直领域的知识,难度低很多,且效果好很多。
作为通用人工智能的大模型,它已建立了对人类自然语言的完整理解。即使大模型对问题的回答有时不对,但与大模型聊天是问不倒它的,基本对任何问题都能听个似懂非懂。在这个基础之上训练专业领域知识,大模型就能够“活学活用”。
记者:如何看待人工智能时代产生的新安全问题?
周鸿祎:人工智能的安全问题必须重视,但是这个问题比一般的问题要复杂,未来的人工智能问题不是简单地技术对抗。一方面,使用人工智能对普通人的技术要求降低,各种各样的数字工具让人们可以很方便地做出各种图片和视频。对此,在技术对抗基础上,可能还需要一定的政策规定。比如,必须在AI产生的图片、视频、声音等作品中加入指纹,加大犯罪和反击的成本。
另一方面,如果超强的人工智能产生意识和自我认知怎么办?所以,要在传统的网络安全基础上,注重数据安全和人工智能安全。
我们为什么要做自己的大模型?第一,不发展是最大的不安全,人工智能是一场“革命”,不能因为它有一些安全的问题就因噎废食,但是我们要关注如何将其负面影响降到最低。第二,只有了解大模型的研发技术,才能解决它所带来的问题。所以,要在做大模型的过程中使用安全能力了解它的原理,在这个过程中,我们才能够提出更好的安全方案。(记者 李政葳 孔繁鑫)