百度粉丝网

Google排除使用人工智能作为武器的可能性

美国旧金山– Google在美国时间6月7日星期四宣布,它将不会使用人工智能作为武器,也不会“造成或直接造成对人的伤害”,因为它公布了一系列技术原理。

首席执行官Sundar Pichai在概述公司人工智能政策的博客文章中指出,即使Google不会将AI用于武器,“我们仍将在许多其他领域与政府和军方合作”,例如网络安全,培训,或者进行搜索和救援。
Google排除使用人工智能作为武器的可能性

消息传出之际,谷歌因与美国军方的合同而面临员工和其他人的骚动,这家加利福尼亚科技巨头上周表示不会续签。

Pichai提出了Google应用人工智能或可以模拟人类行为的高级计算的七个原则。

他说,谷歌正在使用人工智能“帮助人们解决紧急问题”,例如预测野火,帮助农民,诊断疾病或预防失明。

Pichai在博客中说:“我们认识到这种强大的技术对它的使用提出了同样强大的问题。”

“人工智能的开发和使用方式将在未来很多年内对社会产生重大影响。作为人工智能的领导者,我们深有责任实现这一正确目标。”

首席执行官表示,谷歌的AI程序将针对“对社会有益”并“避免造成或加强不公平偏见”的应用程序而设计。

他说,这些原则还要求“为安全性而构建和测试AI应用程序”,“对人负责”并“纳入隐私设计原则”。

Pichai写道,Google将避免使用任何“会或可能造成整体伤害的技术”。

这意味着要避免使用“其主要目的或实施主要是造成或直接造成人员伤害的武器或其他技术”和“收集或使用信息进行监视以违反国际公认准则的系统”。

皮查伊说,谷歌还将禁止使用任何“其目的有悖国际公认的国际法和人权原则”的技术。

对该公告的一些初步反应是积极的。

电子前沿基金会曾反对Google与五角大楼签订的Project Maven合同,称该新闻“在道德上符合AI原则是一个巨大的胜利”。

EFF在推特上说:“恭喜Google员工和其他努力说服该公司取消其在Maven项目上的工作的人。”

华盛顿大学法学教授,斯坦福大学互联网与社会中心研究员Ryan Calo在推特上说:“ Google的AI伦理原则比(德国哲学家)边沁和实证主义者更应归功于(德国哲学家)康德。开始。”

卡洛补充说:“明确声明他们不会助长暴力或极权主义监视是有意义的。”

此举之际,人们越来越担心自动化或机器人系统可能会被滥用并失控,从而导致混乱。同时,谷歌面临批评,称它偏离了其最初创始人的座右铭“不要作恶”。

多家技术公司已经同意永久使用人工智能的一般原则,但是Google似乎提供了一套更精确的标准。

该公司已经是人工智能合作伙伴关系的成员,其中包括数十家致力于AI原则的科技公司,但由于与五角大楼在Maven项目上的合同而受到批评,该项目利用机器学习和工程学人才来区分人类和物体。无人机视频。

据媒体报道,面对成千上万名员工的请愿书和公司外部的批评,谷歌表示不会续签这1000万美元的合同。

但是据信谷歌正在与亚马逊和微软等其他科技巨头竞争,与美国政府签订有利可图的“云计算”合同,其中包括与军事和情报机构的合同