报告:56%的专业人士不确定他们公司是否有使用AI的道德准则
根据Deloitte一份调查显示,74%的公司正在测试生成式AI,65%的公司正在内部使用AI。然而,令人担忧的是,超过半数受访者表示他们的公司“没有或不确定是否有AI使用的道德原则”。这表明,尽管AI在各行各业取得了重大进展,但对于如何在道德上使用这项技术仍存在许多疑虑。
Deloitte采访了来自不同行业的26位专家,以收集关于新兴技术,包括生成式AI的道德使用方面的信息。然后,他们向1700多家企业和技术专业人员发送了一个包含64个问题的调查,以获得更多见解。
图源备注:图片由AI生成,图片授权服务商Midjourney
报告指出,39%的受访者认为认知技术对社会有最大的潜力,而57%的受访者认为认知技术具有最大的道德风险。最令人担忧的统计数据之一是,超过一半的受访者(56%)表示他们的公司没有或不确定是否有AI使用的道德准则。
与Deloitte2022年关于新兴技术伦理和信任的报告相比,今年的报告揭示了“组织发现自己在广泛采用这项再次崭露头角的新技术时,面临新的伦理问题”。这些问题涉及到企业和组织如何使用这些技术。
尽管AI带来了许多好处,但有22%的受访者担心数据隐私,而14%则提到AI如何通过数据培训来产生输出的透明度。
数据污染以及知识产权和版权侵权等问题分别占调查受访者的12%。数据污染是由不良行为者对数据培训集进行的“污染”,可能导致AI产生不准确的结果。
Deloitte的报告还详细说明了调查受访者认为当不严肃对待伦理违规时可能产生的损害类型。声誉损害是最令人担忧的问题,占38%的受访者,其次是人为损害,如误诊或数据隐私侵犯(27%),然后是法规处罚,如侵犯版权(17%),财务损害(9%)和员工不满(9%)。这些损害在已经因隐私侵犯、版权侵犯和其他与不道德使用AI相关的问题而提起的多起诉讼中都有体现。
- 0000
- 0000
- 0000
- 0000
- 0000