盖蒂图片

人工智能监管将是不可能的

网络安全与人工智能的交叉带来了新的风险

转到Michael K. Spencer的个人资料 Michael K. Spencer BlockedUnblockFollow关注3月13日

没有监管,炒作很危险

人工智能是人类在不断增加的鲁莽行为中挥舞着的工具。我们说这是为了我们的共同利益,机器学习炒作等于商业利润。但是,如果我们没有道德规范,法律,政府问责制,企业透明度以及监控空间能够实现AI监管的能力,会发生什么?

人工智能监管不仅仅是复杂的地形,对于一个将接力棒从人类领导转向机器学习出现,自动化,机器人制造和深度学习依赖的时代来说,它是一个未知的领域。

弱AI的时代继续

人工智能(AI)是一个计算机科学领域,它强调智能机器的创建,它像人类一样工作和反应。但是,当人类无法管理,控制和监控它的开发,集成和升级方式时会发生什么?当外国使用人工智能实现自己的政治议程和经济计划而没有仔细监控它有朝一日能成为什么时会发生什么?

军方和DARPA开发人工智能的新应用,使中国自己的人工智能军事表现更加强大时会发生什么?人工智能在很大程度上被视为一种商业工具,但随着人工智能伪造的兴起以及更难以发现什么是真实的以及什么是不真实的在线内容的新内容,它很快成为互联网的道德困境。

深度假货意味着信息时代变得复杂

人工智能(AI)的最新发展指向了一个不仅仅是人类将被升级的时代,它是错误的信息。现在我们知道人工智能有助于伪造文件,图片,录音,视频和在线身份,这些都可以并且将会以前所未有的方式发生。我们正在释放一个开源的网络安全武器工具包,这将使我们的在线互动复杂化。

驾驭越来越多的人工智能和机器智能中介的世界是一个更好的系统。一个系统,确保我们利用人工智能正在创造的机会 - 包括交通,安全,医学,劳工,刑事司法和国家安全等所有和各个领域,同时积极应对道德挑战,包括社会偏见的潜力,需要透明度,以及可能阻碍人工智能创新同时加剧社会问题和加速社会和经济不平等的失误。人工智能对资本主义和民主本身来说可能是危险的。

人工智能的成本和效益尚不清楚

人工智能可以推动全球GDP和生产力,但它会产生社会成本 。虽然硅谷领导人肯定其令人难以置信的好处,但过去着名的学者也警告过它的潜力。无处不在的实施似乎与技术公司不断加剧的商业世界不平等现象相吻合。人工智能创造者并不像斯蒂芬霍金这样的人喜欢看到的那样"采用最佳实践和有效管理"。

当涉及公众信任领域的人工智能时,快速行动和打破一切的时代已经结束,但保护人类免受机器学习潜在危险的全球机构显然不存在。技术公司的员工就其产品的道德规范提出请愿,但没有显着的结果。科技公司的股东继续支持那些加速财富不平等并降低中产阶级社会流动性的公司。

AI控制可能无法完全控制。美国前国务卿,美国外交政策巨头亨利·基辛格认为,控制人工智能武器的发展可能比核武器更难 。人工智能在商业应用方面有很多炒作,我们很少会停下来思考它可能会成为一个糟糕的演员和过时的法律世界。一个国家竞争将导致人工智能的表现将危及少数人类群体的世界。人工智能军事化的世界意味着自动化战争可能会越来越多地由事故或隐蔽的网络安全威胁引发

那么需要更好的AI来调节AI吗?

如果没有更好的人工智能,人工智能监管可能无法实现。正如人类我们不得不承认的那样,我们不再具备调节机器,算法和进步的世界的能力,这可能导致令人惊讶的技术,其经济,社会和人道主义风险超出国际法,政府监督,企业责任的范围。和消费者意识。

本文的一个版本于2019年3月2日首次发表于认知世界---福布斯

查看英文原文

查看更多文章

公众号:银河系1号

联系邮箱:public@space-explore.com

(未经同意,请勿转载)