当前位置: 首页 > 图片新闻 > 正文

图片新闻

欧盟抢先发布AI伦理指导原则 未来开发AI需要遵循7大原则

日期 : 2019-04-12 点击数: 来源:

据外媒报道,欧盟日前发布了AI伦理指导方针,公司和政府机构未来开发AI时应遵循7大原则。

这些原则不像艾萨克·阿西莫夫(Isaac Asimov)的“机器人三定律”。他们不会提供快速制定的伦理框架来帮助我们控制杀人机器人。相反,当我们将AI融入医疗、教育和消费技术等领域时,它们解决了影响社会的模糊和分散的问题。

举例来说,如果AI系统在未来的某个时候诊断出你患了癌症,欧盟的指导方针将希望确保这些事情:软件不会因你的种族或性别而产生偏见,不会无视人类医生的反对意见,而且病人有权要求它们解释诊断结果。 所以,这些指导方针旨在阻止AI的疯狂行为。

为了帮助实现这一目标,欧盟召集了由52名专家组成的小组,他们提出了未来AI系统应该满足的七大原则。

具体如下:1.人类代理和监督:AI不应该践踏人类的自主性。人们不应该被AI系统所操纵或胁迫,应该能够干预或监督软件所做的每一个决定;

2.技术稳健性和安全性:AI应该是安全而准确的,它不应该轻易受到外部攻击(例如对抗性例子)的破坏,并且应该是相当可靠的;

3.隐私和数据管理:AI系统收集的个人数据应该是安全的,并且能够保护个人隐私。它不应该被任何人访问,也不应该轻易被盗;

4.透明度:用于创建AI系统的数据和算法应该是可访问的,软件所做的决定应该“为人类所理解和追踪”。换句话说,操作者应该能够解释他们的AI系统所做的决定;

5.多样性、无歧视、公平:AI应向所有人提供服务,不分年龄、性别、种族或其他特征。同样,AI系统不应在这些方面有偏见;

6.环境和社会福祉:AI系统应该是可持续的(即它们应该对生态负责),并能“促进积极的社会变革”;

7.问责制:AI系统应该是可审计的,并由现有的企业告密者保护机制覆盖。系统的负面影响应事先得到承认和报告。

[1] [2] [3] [4] 下一页

关闭