。
奇点之父、360公司创始人周鸿祎出席主论坛并发表了题为《“以模制模”:AI安全需要新思路》的主旨演讲。他提出,AI安全面临新的挑战,需要“以模制模”的新思路来解决。他认为,AI既是威胁也是解决方案,通过大模型来应对AI的安全挑战是一个新的思路。
以下为周鸿祎演讲全文:
各位嘉宾,各位朋友:
非常高兴参加第四届中国人工智能产业年会。今年会议的主题是智享·融合·突破,我听了之后深受启发,确实在人工智能发展进入新阶段以后,我们面临着很多新的重大的挑战和问题,包括人工智能本身的安全问题、伦理问题、隐私保护问题等等。我想这些问题都值得我们认真思考,共同探讨。
我今天想谈一谈AI安全的问题,我认为现在AI安全问题到了一个非常严峻的时刻,我们需要新的思考,需要新的解决思路。
首先我要谈一谈对当前AI安全形势的看法。
第一个看法就是AI安全是一个整体性的安全问题,不是一个单一的安全问题。AI系统已经深度融入经济社会各个领域,成为整个国家、社会运行不可或缺的基础设施。一旦出现安全问题,就会影响各行各业的正常运行,甚至会引发系统性风险。因此,AI安全是一个整体性的问题,需要全局性、整体性的考虑和解决。
第二个看法是AI安全面临的威胁多种多样,而且不断出现新的威胁。随着AI技术的不断发展和应用场景的不断扩大,AI系统面临的安全威胁也在不断变化和升级。既有传统的网络安全、数据安全等问题,又有新的AI模型安全、算法安全、数据隐私等问题。同时,随着AI技术的应用深入到各个领域,还会面临更多未知的新型安全威胁。这些威胁不仅来自技术和算法层面,还包括经济、法律、伦理等多个方面的因素。
第三个看法是我们对于AI安全的认识还远远不够。目前,我们对AI安全的研究还处于初步阶段,对于AI安全的机制、原理、规律等方面的认识还比较有限。同时,AI系统的复杂性和不确定性也给AI安全研究带来了很大的困难。因此,目前我们对AI安全的认识还远远不够,还需要进一步加强研究和探索。
那么面对这样的形势和趋势,我们应该怎么办呢?
我认为我们需要有一个新的思路,这个新的思路就是“以模制模”。也就是说我们要用大模型来应对AI安全的挑战。这里面的“模”有两个含义,第一个含义是指AI模型,第二个含义是指大模型。所谓的“以模制模”,就是指用大模型来对抗AI模型的风险,用大模型来防止被攻击者利用AI模型进行攻击。
为什么要“以模制模”呢?这里面有两个方面的原因。
第一个原因 ,就是我们人类在认知上存在天然的局限性,我们对世界的认知往往是不完全的、不准确的,我们经常会受到一些偏见和误导的影响,这是我们认知的局限。同样,我们的AI系统也是一样,它的模型虽然非常复杂,但是它仍然是一个有限的模型,它不可能完全模拟现实世界的所有复杂性。而且,由于训练数据的不完备、模型参数的不准确等原因,AI模型往往会存在一定的偏差和误差。这些偏差和误差就可能导致AI系统做出错误的决策和行动,从而产生安全风险。因此,我们的AI模型本身就存在天然的局限性和风险。
第二个原因 ,就是我们人类在学习过程中会受到各种各样的干扰和误导,我们可能会学习一些错误的知识或者产生一些认知上的偏见。同样,我们的AI系统也会在学习过程中受到各种干扰和误导,它可能会学习一些错误的模式或者产生一些偏差。这些错误的模式和偏差就可能导致AI系统的性能下降或者产生安全风险。因此,我们需要通过不断地学习和优化来纠正这些错误和偏差,提高AI系统的性能和安全性。但是,由于AI系统的复杂性和不确定性,这个过程是非常困难的,而且很容易产生新的错误和偏差。因此,我们需要用大模型来帮助我们解决这个问题,大模型可以更好地理解和模拟人类的学习过程,它可以帮助我们发现和纠正AI系统中的错误和偏差,从而提高AI系统的性能和安全性。
因此,我认为“以模制模”是我们应对AI安全挑战的一个有效思路。当然,这个思路还需要进一步的探索和完善,我们在实施过程中还需要克服很多困难和挑战。但是我相信只要我们坚持不懈地努力下去,我们就一定能够找到更好的解决方案来解决AI安全问题,为人工智能的发展保驾护航。
最后我想再谈一谈“以模制模”这个思路对于我们当前AI安全工作的意义。
我认为“以模制模”至少对我们当前三个工作有帮助。
第一个工作 就是提升自动化水平,降低人力成本。我们知道AI系统的核心是大模型,而大模型本身就是一个复杂的系统。这个系统里面包含了大量的神经元和权重参数,这些神经元和权重参数之间有着复杂的连接关系和交互作用。因此,大模型实际上是一个高度复杂、高度自适应的系统。这样的一个系统可以更好地模拟人类的智能行为和思维过程,从而实现更高水平的自动化和智能化。
第二个工作 是确保我们自己开发的AI模型的安全性。我们知道AI模型是一把双刃剑,一方面它可以帮助我们提高效率、降低成本,另一方面它也可能被恶意使用、造成危害。因此,我们需要建立一套完善的安全保障体系来确保我们开发的AI模型不会被别人恶意使用或者造成危害。而这套安全保障体系就需要我们的开发人员来设计和维护,他们需要利用自己的专业知识和技能来编写安全的代码、构建安全的模型、部署安全的系统。因此,我们的开发人员就需要掌握更高的技术水平和更专业的知识能力。
第三个工作 是推动全社会的AI安全意识提升。我们知道AI安全不仅仅是一个技术问题,它还涉及到社会伦理、法律法规等多个方面的问题。因此,我们需要全社会共同努力来推动AI安全意识的提升。而这就需要我们的政府、企业和研究机构等各方力量的共同努力和协作。同时,也需要我们的公众参与和监督,提高公众对AI安全的认识和理解。只有这样,我们才能够建立起全社会的AI安全意识,推动AI安全事业的发展。