所有版权归中国经济网所有。
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
2025年10月17日,中国工程院院士吴江兴接受经济日报记者专访。记者 杨晶 供图 近期,人工智能尤其是智能驾驶领域安全事故时有发生,引起社会各界高度关注。人工智能作为新阶段科技革命和产业变革的核心驱动力,正在重塑生产生活方式,为高质量发展注入强劲动力。但如何平衡“发展”与“安全”的界限?如何让智能应用系统、人工机构“智能”、“可信”,在激发AI的同时控制“不确定性的安全极限”创造力?日前,经济新闻记者对中国工程院院士吴江兴进行了专访。吴江兴院士表示:“中国独特的内生安全理论范式基于‘相对正确的公理和必要多样性规律’。它可以将人工智能的不确定性风险转化为概率可控的问题。利用内生安全范式重构人工智能安全可靠性的底层逻辑,具有重大创新意义”。以下是采访的文字记录。记者:“人工智能+”国家行动计划出台后,人工智能与工业深度融合成为焦点。您如何看待“人工智能+”的发展趋势?在这个过程中需要理解哪些基本原则?吴院士:“人工智能+”绝不是一项简单的技术,而是一场重大的产业变革离子。这也是国家推动数字经济与实体经济深度融合的重要抓手。但必须清醒地认识到,“人工智能+”延伸到哪里,就必须覆盖安全边界。随着人工智能进入汽车、工业控制、能源供应、医疗金融等关键领域,安全将不再是“应用崩溃”等功能性问题,而是直接关系人类安全和国家安全的重要问题。因此,“人工智能+”发展的核心挑战是解决“人工智能既要强大,又要仁慈、值得信赖”的问题,同时实现“性能”和“安全”的提升。同时,安全绝不是“人工智能+”的“拦路虎”,而是共同征程中的“伴侣”。这种协同作用就像对大型模型施加了“收缩诅咒”。而不是限制发挥创新活力,通过技术手段控制风险,使安全可设计、可验证、可调整,最终实现安全特征和模型性能的共生进化和同步更新,如双螺旋DNA。记者:专门针对人工智能与工业深度融合的场景,比如最近发生了一系列涉及新能源汽车的智能驾驶事故,引起了相关方面的关注。您能否以新能源汽车智能驾驶的发展为例,解释一下我们面临的根本性安全挑战以及“内生安全范式”是如何运作的?吴学者:最根本的安全问题是人工智能安全边界不确定。智能驾驶所依赖的大综合模型是一个随机输出系统。很明显,基于概率结果的模型推论无法使用传统的方法得到充分验证确定性手段。参见逻辑悖论。更吊诡的是,虽然人工智能需要依靠“自主模式”来不断优化和提高安全性,但94年前提出的哥德尔不完备定理却清楚地表明“自主模式”并不能从根本上解决问题。另一方面,“异构模式”受到测试套件完整性的限制,无法涵盖所有潜在的安全问题。因此,人工智能屡屡触及“人类安全”事故的红线。理论上,不存在绝对的安全,但这并不意味着“危险的AI老虎”不能被关在有一定限制的安全笼子里。此外,监禁的影响必须有数据支持,并且必须对人们可见、可衡量和可验证。中国独特的内生安全理论范式建立在“相对正确的公理和必然变化规律”之上,是“安全的”。能够将“AI老虎”可靠地禁锢在“内生安全笼”中,通过多智能体共识机制替代单一模型的决策,管控端到端智能驾驶的“黑箱风险”,将“未知威胁”转化为“可控风险”,确保智能驾驶系统“一出厂就安全”。 “人工智能安全”包括模型安全、技术应用安全、社会伦理安全、数据安全和隐私等多个核心方面,是一个复杂的系统安全问题。面对如此复杂的系统安全问题,您提出的“内生安全”理论能否解决人工智能的安全困境?它的核心逻辑是什么?吴院士:我国独特的内生安全理论的核心是基于“相对正确的公理”和“必要多样性原则”来克服 传统“前”的局限性“内部补丁防护”,并提出“结构决定安全”的新路径。简单来说,就是将传统方法难以应对的完全未知的威胁,转变为已知风险但可控制的问题,最终产生可设计、可验证、可预防的不确定风险。这一理论已经重复了十几年,在信息安全、安全领域得到了理论上和实践的充分验证。 网络与数据安全,被国际公认的中国网络安全学派。具体到“人工智能+”领域,内生安全主要解决两个主要问题。一是在难以解释的智能系统中建立可靠的决策机制。其次,它可以定量评估和检测新的安全风险。原理是类似于hu的共识机制男人的“代际歧视”。通过建立几个不同模型的“监控组”,这些模型可以交叉验证大型模型的结果,您可以根据人口普查进行投票。借助“必要多样性原理”和“相对正确性公理”,将“未知未知的安全风险”转化为可控可管的“已知未知的安全问题”,大模型成为人类可靠的帮手,而不是被关在“结构决定安全”的“牢笼”里等待打开“潘多拉魔盒”。换句话说,内生安全意味着消除传统单一的安全保障和验证体系,通过多个异构交叉验证体系来保证人工智能的安全。这是超越“自律”、“他律”、“外在”等传统安全手段的确保人工智能安全可信的“第三条道路”。骗局“被动防护”理念开创了“从设计到制造全流程融合安全功能”的新模式。该方案超越传统防御逻辑,通过有效“升维”再“降维”,有效解决当前人工智能安全的弱点和挑战。依赖于对多个主题的共同理解的识别机制和交叉验证监控组可以实现三个主要目标。一是通过“相对真实的公理”让风险“相对可控”。其次,可以利用“群体共识”让多个主体共同充当“风险把关人”。第三,在设计阶段就将“安全基因”融入人工智能,确保人工智能系统“相对可控”。这条技术路径的价值在于,人工智能能够在维护安全底线的同时,保持创新的活力。他们不仅能大胆探索智能等技术的“先锋领域”驾驶,但他们也可以依靠内生的“安全笼”来避免越线。记者:您的研究团队正在加速人工智能本质安全概念的进展。验证平台的引入是有效的,有望为“人工智能+”提供一条安全、可实现的路径。请介绍一下该倡议的进展以及未来推动引入安全可靠的人工智能技术的重点。吴院士:内生安全大于AIAs的不确定性风险 人工智能能否做到这一点,“莫名其妙、不可判定、不合理”带来的不确定性风险就转化为概率可控的安全问题。我们在几个领域取得了令人满意的进展。这些发展之所以具有创新性,是因为它们是从底层架构到应用场景的系统级创新,而不是单点的技术改进。首先,我们主动发起为人工智能创造一个内生的、安全的、“超洁净的环境”,解决基于数字的可信基础问题。这里的“超净”指的是为AI应用系统打造的“内生安全实验室”,不是通过传统意义上的物理环境隔离,而是通过建立“可信执行环境+不确定性安全周界缩减”技术,将AI模型算法的执行过程始终限制在一个周界内,形成“可追溯、可验证、可控”的数字安全体系,避免因外界干扰而导致决策偏差。二是重点领域示范验证取得重大进展。例如,内容安全检测利用内生安全技术,有效识别大规模模型产生的有害信息。在有线电视网络领域,智能化系统可以保障有线电视网络的安全和生成内容的真实性。在智能网联汽车领域,端到端的智能决策不再依赖于单一的“黑匣子”模型,而是利用多智能体共识机制来保证决策和行动的可控,为“公交车上的大模型”和“方向盘上的大模型”提供了可行的路径。最后,我们正在加速实施内生人工智能安全概念验证平台。平台重点关注网络安全保险模型、健康保险审计模型、智能楼宇模型、智能家居模型等高价值领域。我们将进行实际应用的概念验证,打通“工程师工作→实验室样品→商业产品→市场产品”的转化环节。公司有平台。我们希望利用人工智能高度聚焦的效率,探索解决人工智能本质安全技术落地和转型的新途径。它可可以说,是国家层面人工智能内生安全的建设。测试和试验场是加速人工智能技术安全可靠落地的关键。其位置将类似于医学领域的“CT/B超/MRI”设备。通过传感技术、媒介和生态创新,实现人工智能“智能与资产同步进化”的量化、可验证目标,推动“人工智能内生可信治理”,在输出技术标准、促进产业生态的同时,推动AI+行为从“可管”到“可管”的历史性转变。记者:就您的研究领域而言,在当前推进“人工智能+”行动的过程中,实现创新链与产业链的有效衔接还面临哪些障碍?基本原则是什么在这个过程中要了解什么?吴院士:在“人工智能+”行动中,创新链与产业链有效对接面临的主要障碍是大规模应用所需的安全性和可靠性问题尚未找到充分的解决方案。只有克服“不可靠幻觉问题”等不确定风险,人工智能才会成为人类的“可靠助手”,各行各业才能够放心地使用人工智能,即使人工智能迅速渗透到社会各个生态系统,也不会造成严重的社会灾难。为了克服这个问题,您需要使用内生可信的设计框架从源头为您的人工智能应用程序构建一个安全的基础。同时,定量评估人工智能安全和行业融合需要可靠、可检测的方面。此外,我们还需要通用可行的检测理论、构建技术以及支撑生态系统。ms,可以有效地大规模验证人工智能应用系统的安全性。不解决“可量化人工智能应用系统安全可靠性的大规模测试”问题,就不可能实现AI创新链与产业链的无缝连接。具体来说,就是未来人工智能的内生性。安全试验场建设将重点关注四个方向。首先,我们在复杂环境下创建了一个实验场景,来检验“在面临不确定风险时,如何在人工智能应用系统中建立安全信任”。其次,我们借鉴汽车安全标准(ASIL),构建涵盖人工智能系统设计、测试和应用全过程的安全框架,解决大型模型的安全可靠设计问题。三是搭建“安全可靠”检测基机研发平台,开发样机系统具有通用的安全检测能力并采用开源理念。建设验证中心和中试基地,推动人工智能安全测试设备产业化,解决安全评估缺乏通用方法、成本高等问题。四是通过建立跨境技术验证机制、构建国际合作网络,让中国人工智能安全新理念汇聚全球发展生态,共同验证中国质量标准,完善检测手段,构建信任锚,为全球人工智能治理贡献解决方案。