我的位置 态势感知  >  安全态势

译文 | 人工智能与国家安全:英国的政策考量(上)

来源:关键基础设施安全应急响应中心 时间:2020-05-25 阅读次数:

作者:英国皇家联合军种研究所(RUSI)的亚历山大·巴布塔(Alexander Babuta)、马里恩·奥斯瓦尔德(Marion Oswald)和阿迪·詹耶娃(Ardi Janjeva)。

翻译:国家互联网应急中心 张冰

执行摘要

英国皇家联合军种研究所(Royal United Services Institute,RUSI)受政府通信总部(GCHQ)的委托,开展了面向国家安全目的的人工智能(AI)应用独立研究。该研究项目的是建立一个独立的证据体系,为未来制定有关国家安全的AI应用政策提供参考。本研究的发现是在全面访谈英国国家安全领域相关方,包括:执法机构、私营部门公司、学术和法律界专家以及民间社会代表等基础上获得的。同时辅之以有关人工智能和国家安全的现有文献分析。

研究发现,人工智能可以为英国国家安全领域提供众多提升现有流程的效率和有效性的机会。人工智能方法可以从庞大分散的数据集中快速获得洞见,发线人类操作员不会注意到的连接关系。然而,在国家安全和英国情报机构的权力架构下,AI应用可能会引起额外的隐私和人权方面的考量,这需要在现有法律和监管框架内加以评估。因此,随着新的分析方法不断应用于数据,需要不断加强政策和指南研究,以确保持续对国家安全AI应用的隐私和人权影响进行评估。

本研究重点关注了情报机构试图部署AI的三种方式:

1.通过提高行政机构流程的自动化水平从而大大提升效率,例如,辅助执行日常数据管理任务,或者提升目前合规性和监管流程的效率。

2.面向网络安全,人工智能可以主动识别异常网络流量或恶意软件,并实时响应异常行为。

3.对于情报分析,“增强情报”(AuI)系统可以被用来支持一系列人工分析过程,包括:

a.自然语言处理和音视频分析,诸如机器翻译、说话人识别、目标识别和视频摘要。
b. 海量收集材料的过滤和分类。
c. 行为分析以获得单个主题级别的深入信息。
本研究中所分析的AI用例中AI无法完全代替人工判断。试图在个体层级“预测”人的行为的系统对威胁评估目的而言价值有限。尽管如此,使用增强情报系统整合来自多个情报源的信息并标记重要数据以便人工审查的方法,将可能显著提高针对单个主题分析任务的效率。
考虑到应对AI发展给英国国家安全带来的威胁,对AI的需求将变得更加迫切。恶意行为者毫无疑问将谋求使用AI技术攻击英国,最有能力的敌对国家行为者,它们不受与我们相同法律框架约束,正在开发或已经开发出了进攻性AI能力。随着时间的推移,包括网络犯罪集团在内的其他威胁制造者也将能利用相似的AI创新成果。

• 对数字安全的威胁包括:利用经常改变其可识别特征以逃避检测的多态恶意软件,或针对特定受害者的社会工程攻击自动化。

• 对政治安全的威胁包括使用“深度伪造”(deepfake)技术来合成媒体和虚假信息,以操纵公众舆论或干扰选举程序。

• 对物理安全的威胁不是太紧迫的问题。但是,物联网(IoT)技术、自动驾驶汽车、“智能城市”以及相互连接国家关键基础设施越来越多的应用,将带来大量可能被利用来造成损害或破坏的漏洞。

存在与隐私侵犯相关的机会和风险。AI被认为可以通过最小化需要人工审查的个人数据量来减少隐私侵犯。然而,也有人认为,无论数据是由算法还是由人类操作员处理,隐私侵犯的程度都是一样。更进一步,使用AI可能会使部分原来因技术或能力因素限制而无法处理其他资料得到处理。因此,在评估任何AI应用造成潜在隐私侵犯的程度时,需要将上述因素考虑在内,并与其可能带来的分析效率提升加以综合考虑。
“算法画像”(Algorithmic profiling)可能比手工分析更具侵犯性,如果有人认为遭到不公正的偏见或歧视,这将引发更多的人权争议。防范机器偏差需要有在AI项目的所有阶段持续跟踪和消除算法歧视风险的内部流程,并确保AI开发团队中的人口多样性。
许多评论引起了人们对某些AI方法的“黑匣”特性的关注,这可能会导致整个决策过程中的负责性的缺失。为了确保人类操作员对基于分析的决策过程结构负有最终责任,有必要以非技术熟练用户可掌握的方式设计系统,使其能解释和审慎地评估关键技术信息,例如误差的边际效应和计算相关的不确定性等。
尽管有关AI的“道德准则”不断增加,但仍很难确定如何在实践中施行这些准则,这表明需要对AI的国家安全应用出台更具体的面向特定部门的指南。在现有的监督制度框架下采取敏捷方法来预测和理解AI新能力所带来的机遇和风险,对于确保英国情报界适应迅速发展的技术环境和威胁态势至关重要。
资料来源说明
本文的发现是基于开放和秘密资料综合研究的结国。相关内容主要来自与英国国家安全领域受访者进行的秘密访谈和焦点小组讨论。尽管全文中都包含开放参考文献,但并非总是能够为研究发现和结论提供确定的资料来源。
引言

 

政府通信总部(GCHQ)委托皇家联合军种研究所(RUSI)开展AI的国家安全应用独立研究,旨在建立一个独立的证据库,为未来有关AI的国家安全应用政策制定和战略思考提供参考。
本研究考察了AI在英国情报界(以下简称“UKIC”或“机构”)的应用。本文的发现是基于对来自英国情报界、其他政府部门、执法机构、军事组织、私营部门公司的实践者和政策制定者以及学术和法律界专家、民间社会代表进行深入咨询基础上取得的。与此同时,本文也参考了现有关于AI和国家安全的学术文献、研究报告和政府文件。
本文的发现是作者独立研究和分析的结果。由于该主题的敏感性,在与项目合作伙伴协商后,某些特定内容已被省略或删除。但这些修订不会影响整体的研究结果或结论。
本文的结构如下。引言部分简述了项目的背景和所考虑的问题。第一章考察了本研究发现的国家安全背景下AI的潜在应用。第二章总结了影响英国情报界数据使用的法律框架,然后评估了AI的国家安全应用引发的法律和道德特殊考虑。最后,第三章总结了现有AI指南、法规和监管框架,然后考虑了在国家安全背景下所需的其他特定部门指南和监督机制。
研究背景
英国持续面临各种来源的严重的国家安全威胁。英国情报界被寄予厚望保护公民免受生命安全威胁,并不断采用新方法以更有效地完成其职责使命。与此同时,公众希望这些机构能够不断适应和创新,并确保公民的权利和自由得到充分保证。对那些国家安全界人士而言,实现两者间的平衡将是一项重大挑战,特别是在技术发生巨大变革的时代。同时,公众舆论日益聚焦对数据分析的治理和监管,人们越来越担忧现有架构难以适应AI治理和监方面的目的。
现代社会的“信息超载”也许是英国国家安全界面临的最大技术挑战。不断指数级增长的数字化数据需要运用更复杂化的分析工具以有效管理风险,以更主动地应对新兴安全威胁。对英国情报界而言,这种“创新的义务”也许更加迫切,考虑到AI的敌对性应用已经对英国的国家安全构成实实在在的威胁,例如:使用机器学习(ML)算法来增强网络攻击能力,生成恶意软件或实现虚假宣传活动自动化。在此种背景下,英国情报界有明显的动力实施先进的数据科学技术,以有效应对英国超级链接数字生态系统面临的未来威胁。
虽然AI为英国情报界提供了众多来提升现有流程效率和有效性的机会,但这些新能力引发了更多的有关隐私和人权的忧虑,需要在现有法律和监管框架内进行评估。最近的评论凸显了出于监视目的而实施AI和高级分析项目的潜在风险,特别是对个人权利的潜在影响。正如乔纳森·金(Jonathan H King)和尼尔·理查兹(Neil M Richards)所总结的那样:
问题在于,我们从以前未经检查的大量数据中揭示模式和新知识的能力,正在以超过我们当前的法律和道德准则所能管理的速度加快发展。我们现在可以做到几年前不可能完成的事情,并且已经摆脱了现有的道德和法律束缚。如果我们无法在新数字社会中保持我们所珍视的价值观,那么我们的大数据能力发展可能面临为了创新和私利而放弃这些价值观的风险。
解决这些问题已成为国家安全界的高优先事项。根据政府通信总部(GCHQ)的看法,“围绕AI和机器学习在国家安全领域的应用进行辩论是绝对重要的,这将提供答案和方法并获得公众的认可。”政府通信总部(GCHQ)进一步指出,“AI的应用受到道德约束并得到有效监管至关重要。”军情5处(MI5)即将卸任的局长安德鲁·帕克爵士(Sir Andrew Parker)先生同样表示其对AI特别感兴趣,“因为我们需要能够尽可能接近实时地了解成千上万人的数字生活”,但同时必须认识到“[技术]永远不会取代拥有人类洞察力的需求,因为技术和数据永远不会告诉我们人们的脑海中正在发生什么”。
大多数考虑中的AI方法正迅速地整个商业领域变得日益普及。但是,英国情报界还要接受关于数据获取和使用的更严苛的审查——私营部门却不用受到同样的审查和监管。此外, AI在国家安全领域中应用将比许多商业应用需要更高的鲁棒性和灵活性,并且所需许多能力很难从其他领域转化获得。
确保英国国家安全领域能够充分利用这些新技术带来的机会,需要明确和基于证据的政策,,并且不能损害社会和道德价值观或破坏公众的信任。
人工智能是什么?
当前没有公认的AI定义。但是,“通用AI”(具有人脑的代理、推理和适应性的机器智能)与“狭义AI”(经过训练可在某个需要独特技能的认知任务,例如下棋、驾驶汽车或翻译文件等方面表现良好的机器智能)之间常常会有所区别。目前所有的AI都可以称为“窄AI”。通用AI——如果的确可以实现的话——距离我们可能仍有几十年了。
狭义AI可以理解为“使机器能够有效执行高度复杂任务的一系列高级通用数字技术”。AI通常根据“执行通常需要人类智能的任务”的能力来定义,可被理解为包括六个子学科:自动推理;自然语言处理(NLP);知识表示;计算机视觉;机器人技术和机器学习(ML)。
狭义AI的最新进展主要是由机器学习(ML)子领域的进步推动的。ML使计算机系统能够通过经验来进行学习和改进,其特征是使用统计算法来寻找模式、获取洞见或作出预测。算法可以定义为“一组数学指令或规则,特别是如果将其提供给计算机,将有助于计算一个问题的答案”。ML是一种特定类型的算法,可以在获得新数据之后的提高执行特定任务的性能。ML算法主要包括三种类型:有监督学习、无监督学习和和强化学习。

•在有监督学习中,代理“观察一些作为样本的输入输出对,并学习从输入映射到输出的函数”。例如,对于对象分类任务,训练数据可以包括许多不同类型水果的照片,以及定义每张照片中显示了何种水果的标签。如果训练出的模型在出现新的不熟悉的照片时能够正确识别水果的类型,则被认为是“通用化”模型。

•在无监督学习中,“即使没有提供明确的反馈,代理也能够学习输入中的模式”。例如,对于图像识别,训练数据可以是成千上张包括五种动物的独立照片,但没有标识动物的标签。如果该模型能够将照片正确地分成五组,每组包含一种动物的照片,则认为该模型表现良好。

•强化学习是一种目标导向的学习形式,在其中代理根据随时间推移获得的正反馈和负反馈改进任务执行。对于个性化推荐系统,强化学习可以根据人类听众以前的收听习惯为其推荐音乐。用户提供表明他们是否喜欢计算机推荐曲目的反馈。此反馈有助于算法学习用户的收听偏好,这意味着建议会随着时间的推移变得更加准确。

•半监督学习是机器学习的第四类,其所使用的数据集中,一些输入输出对已经被标签化,而很大一部分数据未被标签化。再来看前面水果分类的例子,可以在使用标签化子集进行微调之前,在整个训练集上对模型进行预训练(使用无监督方法)。

近年来,随着计算能力的指数级增长以及大型数据集可获得性的提高,机器学习(ML)的应用变得更加普及。在医疗保健领域,基于ML的图像识别应用于复杂的诊断任务,例如预测婴儿自闭症的风险或检测皮肤癌。地方议会正在部署ML算法,以帮助社区工作者确定案件的优先顺序,并确定最需要政府支持的家庭。在警务领域,ML算法被用于控制中心的预测需求,包括再犯罪概率,并根据犯罪的“处理难易程度”确定的工作优先级。随着“智慧城市”的发展,ML算法正日益被用于简化任务,诸如废物清理、交通管理和废水处理系统。未来几年,这些趋势将会持续下去,据英国政府人工智能办公室估计,到2030年,人工智能可以使英国经济增加2320亿英镑。
但是,需要重视的是,绝大多数AI的进步都是通过私营部门或学术界获得的。英国政府尚未充分利用这些机会。正如公共生活标准委员会总结的那样,“尽管引发了大量关注和评论,但我们有证据表明,英国公共部门对AI的应用仍比较有限。委员会观察到的大多数公共部门的AI案例子仍处于开发阶段或处于概念验证中。”未来几年,充分利用这些技术带来的机遇将是英国政府的高优先事项。

 

 

原文来源:关键基础设施安全应急响应中心

8条评论