人工智能的风险总结

人工智能的风险总结

大数据杀熟、外卖骑手被系统玩得团团转、94岁老人被抬到银行做人脸识别……随着人工智能应用的快速发展,一系列伦理和安全问题也随之浮出水面。

1月5日,全国信息安全标准化技术委员会(以下简称“信安标委”)正式发布《网络安全标准实践指南—人工智能伦理安全风险防范指引》(以下简称“指引”)。

多位参与编制工作的专家说明,指引的出台,正是为了引导社会各方充分认识相关风险,确保人工智能安全可控地发展。

提出风险防范基本要求

指引将人工智能伦理安全风险总结为失控性风险、社会性风险、侵权性风险、歧视性风险及责任性风险。

现在大家都在讨论人工智能的风险,但到底存在哪些风险?这个问题的答案其实没有那么清晰。因此,指引总结了五类风险,基本涵盖了当前有关人工智能的最重要的事项。

人工智能的风险总结

失控性风险,是指人工智能的行为与影响超出相关组织或个人预设、理解、可控的范围,对社会价值等方面产生负面影响的风险。

社会性风险,是指人工智能使用不合理,包括滥用、误用等,对社会价值等方面产生负面影响的风险。

侵权性风险,是指人工智能对人的人身、隐私、财产等基本权利造成侵害或产生负面影响的风险。

歧视性风险,是指人工智能对人类特定群体的主观或客观偏见影响公平公正,造成权利侵害或负面影响的风险。

责任性风险,是指人工智能相关各方行为失当、责任界定不清,对社会信任、社会价值等方面产生负面影响。

通过上述风险来看,指引也提出了一些风险防范的基本要求,如需符合社会价值观,以推动可持续发展为目标等。

人工智能的风险总结

在人工智能发展飞快的今天,我们也更要重视人工智能的安全发展。

分享扩散:

改版

反馈