美国安全中心(Center for a New American Security,CNAS)于6月19日发布了《人工智能:决策者需要了解什么》报告,该报告站在决策者的角度,对当前人工智能领域我们需要关注的人工智能革命、人工智能的用途、人工智能的面临的问题、脆弱性以及人工智能的未来等进行了探讨。

人工智能和国际安全系列是新美国安全中心持续多年的人工智能和全球安全计划的一部分,该系列还包括以下内容:

  • "人工智能与国际安全",Michael C. Horowitz,Paul Scharre,Gregory C. Allen,Kara Frederick,Anthony Cho和Edoardo Saravalle(即将发表);

  • "人工智能时代的战略竞争",Michael C. Horowitz,Elsa Kania,Gregory C. Allen和Paul Scharre(即将出版)。

本报告由三位作者共同撰写,作者信息如下:

  • MICHAEL C. HOROWITZ,新美国安全中心(CNAS)的兼职高级研究员和宾夕法尼亚大学政治学教授;

  • ROBERT O. WORK,CNAS国防高级参赞、前国防部副部长;

  • PAUL SCHARRE,CNAS的高级研究员、技术与国家安全项目主任。

该报告是新美国安全中心关于人工智能和国际安全系列的一部分,该系列考察了人工智能在国家安全领域的潜在后果。报告认为,几乎国家安全的每个方面都可以通过人工智能来改变,人工智能应用于国防,情报,国土安全,外交,监视,网络安全,信息和经济工具等,美国不仅要预见到这些发展,而且要果断地为竞争对手的使用做好准备,充分利用AI提供的机会。

报告认为,科技正在改变我们的生活。人工智能、网络物理系统、网络和社交媒体以及虚假信息的迅速发展正在深刻地影响、改变着国家安全形势。民族国家因此拥有了可用于政治影响的新工具以及新的攻击漏洞。社会媒体和激进透明度赋予非国家团体和个人权力。人工智能和自动化对人类在冲突和战争中的作用提出了深刻的问题。

报告共由六部分组成,分别是:

前言

人工智能革命

何为人工智能?

人工智能对谁有益(用途)?

人工智能的安全问题及脆弱性

人工智能的未来发展

前言

罗伯特.O.沃克

我们正处在人工智能(AI)和机器学习领域不断加速和扩大的全球革命中,对未来的经济和军事竞争力产生巨大影响。因此,或许没有比美国和其他民主力量如何利用人工智能和相关技术,子学科和用于创造智能机器行为的方法(在道德,伦理,政治和法律范围内)的进步更重要的辩论领导人和公民可以接受的边界。建立AI界限的想法在民主社会中非常重要。公众对于未来越来越多的任务和决定委托给机器的前景的反应显然是混合的,几十年来科幻小说的写作,电视和电影已经不可磨灭地塑造了它。早在1927年,作为有史以来第一部全长科幻电影之一的大都会,就讲述了一位科学家的故事,他制造了一个机器人来代替他失去的爱情。但机器人得到了其他想法并最终在整个城市中摇摆不定。大都会只是科幻小说中经常探索的两大智能机器的一个重要问题的例子:它们要么奴役我们(例如大都会、Matrix三部曲),要么他们会杀了我们(例如,终结者,太空堡垒卡拉狄加)。而现在,鉴于人工智能和机器学习如何开始影响工作场所,第三个引人关注的问题是:智能机器将接受我们的工作(例如,Martin    Ford的书"机器人的崛起:技术和未来失业的威胁"。

这些反乌托邦式的结果需要通过未来的愿景来平衡,在这种未来中,智能机器对我们的社会产生了更积极的影响。人工智能和机器学习将可能导致新的工业革命,提高经济竞争力并创造新的财富来源。它们将导致医学科学和汽车安全方面的进步。他们将启用新的虚拟培训和娱乐形式。他们对我们社会和福祉的积极影响可能是深远的。

它们将不可避免地影响国际安全和军事实力- 这是本报告的主题。以下内容旨在作为国家安全领域人工智能和机器学习的入门书。它解释了AI语言和决策者需要了解的想法;探索人工智能的安全相关应用;思考人工智能和机器学习时代的战略竞争;并讨论AI革命对全球安全的间接影响。

我们希望这份报告能够为人们如何负责任地使用人工智能来改善国家安全提供一个健康的辩论提供坚实的基础。事实上,它为CNAS人工智能和国家安全工作队提供了知识载体,我与卡内基梅隆大学的安德鲁摩尔博士共同主持。在全面辩论人工智能和机器学习在安全应用中的可接受界限的驱动下,由来自政府、学术界、公共/私营企业和组织的各种专家组成的工作组将讨论如下主题:

  • 确保美国在人工智能研究和创新方面的领先地位

  • 授权联邦政府利用人工智能机会               

  • 确保AI在国家安全应用中的安全和负责任的使用

  • 准备对付AI的恶意使用

它还将试图找到与人工智能和机器学习相关的更悲观和乐观的叙述之间的正确平衡,并确保这些技术在道德和道德上的追求。

我希望你喜欢阅读!

人工智能革命

人工智能革命正在进行中,人工智能和机器学习方面的巨大收益正在各行业应用:医药,金融,交通等。这些发展可能会对全球经济和国际安全环境产生深远影响。世界各地的商界领袖和政界人士,从Elon Musk到Vladimir Putin,都在越来越多地考虑AI是否会引发新的工业革命。像蒸汽机,电力和内燃机,人工智能是一个广泛的技术支持的应用程序。第一次和第二次工业革命中的技术允许创建特殊用途的机器,以取代特定任务中的人体劳动。今天,人工智能使特殊用途机器的创建成为替代人类认知劳动的具体任务。正如Wired凯文凯利的联合创始人所观察到的那样,"人工智能将使活跃的物体活跃起来,就像一个多世纪以前的电力一样。现在我们将重新认识接通电力以前的一切。"

何为人工智能?

人工智能和机器学习是人工智能的一种方法,可以构建专用机器来执行有用的认知任务,在某些情况下比人类更好。早期的人工智能系统是基于规则的"专家系统",其中计算机程序简单地遵循关于如何在特定情况下行为的具体说明。最近AI的进步使得更复杂的系统。机器学习允许算法从数据中学习并开发解决问题的方法。这些日益智能化的机器可用于广泛的用途,包括分析数据以发现模式和异常情况,预测趋势,自动化任务以及为自动化机器人系统提供"大脑"。

人工智能对谁有益(用途)?

基于规则的人工智能系统已有数十年的历史,但最近在大数据,计算能力和改进算法方面取得的进展已经导致人工智能能力的显着提高。因此,更高级的人工智能系统正在走出实验室并进入现实世界。对于一些应用,如图像识别,AI系统已经在基准测试中击败了人类。在其他情况下,比如语言翻译,目前的人工智能系统并不像最好的人工翻译那么有效,但却足以在某些场合有用。然而,人工智能系统可能不需要达到超人的性能。在某些情况下,它们的价值可能来自更便宜,更快速或相对于人类专业知识而言更容易部署的规模。 AI使用的一些示例包括:

数据分类 - 人工智能系统可用于帮助分类数据,从图像到歌曲流派到医学图像和诊断。在许多情况下,人工智能系统可以比人类更可靠和准确地对数据进行分类。

异常检测 - 人工智能系统可以帮助检测异常行为,例如欺诈性金融交易或新的恶意软件。人工智能系统可以通过分析日常行为模式(金融、网络或其他)发现其签名尚未知晓的异常,然后识别超出规范的新行为。这些系统可以用来以大规模和实时的方式监测大数据流,而这种方式对于人类来说是不可行的。

预测 - 通过在大量数据集中查找模式,AI系统可以对未来行为进行统计预测。这种类型的系统已经在日常商业用途中,例如搜索引擎自动填充和Netflix以及亚马逊的推荐。机器学习在改善天气预报方面也显示出了价值。有些应用引发了棘手的道德问题,例如将AI用于预测性治安或估计医疗病人在临终护理中的寿命。

优化 - AI系统可用于优化复杂系统和任务的性能。例如,DeepMind使用机器学习来优化Google数据中心以提高能源效率,从而将冷却所需的能源量节省40%,整体能源效率提高15%。

人工智能的安全问题及脆弱性

复杂应用环境加剧AI系统的脆弱性。当前用于执行特定任务的狭义人工智能系统,其智能性较为脆弱,可靠性不高,由此将带来一定的安全风险。当人工智能系统使用环境发生变化时,系统可能无法立即感知到环境的变化并及时调整行为,可能会出现突然失灵,瞬间从"超级智能"变为"超级弱智"的情况。

AI系统可能自主产生意外行为。由于AI系统自身的复杂性,用户并不能总是提前预测到AI系统的行为,尤其是当设立既定目标的AI系统在现实环境下运行时,AI更易于出现意想不到的行为。

AI系统行为具有不可解释性。AI图像识别系统可以准确地识别校车图案,但不能解释图案的哪些特征是判断校车的依据。AI系统的这种"黑箱"性质可能会对某些应用带来挑战。

机器学习安全问题和脆弱性。机器学习的技术是强大的,但其学习过程的任何阶段都可能出现一些潜在的安全问题。首先,在目标函数的设定中就存在安全隐患。安全问题同样存在于机器学习过程中,学习系统从训练数据集向现实世界转换的难题普遍存在。

AI系统表现出一定倾向或偏见。让AI系统表现出某种偏见的一种方式是在AI系统的目标函数或目标的设置中体现设计者的偏见。如果AI目标设计者的目标不符合社会需求,那么使用该系统可能会产生不利后果。另一种方式是收集或选择带有偏见的训练数据,使用偏离了实际运行环境的训练数据去训练军用AI系统,可能会给国家安全带来重大风险。

AI系统可能导致安全事故。任何复杂系统都可能发生系统故障,由于系统本身的复杂性,AI系统可能会出现系统故障。而在竞争环境下,具有不同算法的不同AI系统之间的敌对和竞争,会导致AI系统出现奇异的行为。同样,在国家安全应用中,为了获得竞争优势,AI系统可能会发生意想不到的、具有破坏性或适得其反的行为。       

破坏者可实现对AI系统的操纵。恶意破坏者可以隐藏性地操纵AI系统,使其出现安全事故,这也是必须重视的风险。具有欺骗性的数据输入将加剧深度神经网络的脆弱性,这一安全问题适用于广泛的人工智能和机器学习技术。

人工智能的未来发展

人工智能和机器学习领域仅在过去几年中取得了显着的进步,并继续向前跨越式发展。人工智能的未来非常不确定。一个关键变量是创建更多通用AI系统的进展,该系统可以在多个领域展示智能行为,这与今天的狭窄AI系统不同。另一个重要变量是AI系统中尚未解决的安全问题和漏洞方面的进展。如果各国竞相投入可能会发生事故或颠覆(例如欺骗攻击)的AI系统,那么AI性能超过安全性的世界可能会非常危险。另一方面,人工智能安全的进展可以减轻人工智能国家安全使用所带来的一些风险。人工智能领域的大部分创新都是由商业部门推动的,但政府确实有能力通过研究投资来影响进展的方向。美国政府应加大对人工智能安全的投资,以改善在国家安全环境中建立健全,可靠和可解释的人工智能系统的前景。

声明:本文来自中国新一代人工智能,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。