在当今的社会中,人工智能(AI)算法可以真正无偏见吗?该问题上周在Brookings Institution专家小组中引发了一些严重的辩论。

在10月31日讨论中,Brookings技术创新中心的尼克特特·李·李某表示,发展AI技术的人民的社会背景使得一个高大的任务进行了无偏见的算法。

“开发它们的人并不多样化,”她指出。 “当我们实际开发计算机系统和模型时,我们伴随着我们的价值观,我们的规范,我们对世界上的假设,以及当您与那些价值观,规范和假设以及硅谷工作时......这就是AI开始看起来像,这就是为什么偏见本质上被烘焙到系统中,“她补充道。

然而,信息技术和创新基金会(ITIF)总裁罗伯特阿特金森(ITIF),表示有意识的发展可能会产生一种没有偏见的算法。他还认为,即使是不完美的算法也有机会改善人类的偏见过程。

“一个很好的例子将是面部认可。每个人都在武器中,关于面部识别,这是一个比其他团体更偏向的人......但是有研究警察阵容,人们只能达到60%的时间,“阿特金森说。” “使用NIST [国家标准和技术研究所]研究最良好,最有效的AI,他们显示出一个百分比的错误,”他比较。

技术创新中心高级研究员John Villasenor指出,现有的产品责任法律框架可能没有许多算法案例,但确实提供了一个潜在的系统,该系统将持有公司对其算法带来的结果负责。

“我相信一个总体结论......是公司需要承担他们创造的算法的责任,”他说。

对于AI风险的政策解决方案,Lee提出了一个在Energystar评级系统中建立的评级系统,用于提供透明度,以及用户审查的机制,以使信任算法。她还提倡在技术开发中获得更多多样性,并将其他学科列入技术以外的技术,以带来新的观点。

Atkinson支持一种轻触方法,并指出过去的建议更严格规范互联网可能已经杀死了近几十年的大部分创新。

阅读更多信息
关于
乔希梅奥
乔希梅奥
乔希梅奥是一个涵盖政府和技术交叉口的Manitalk员工记者。
标签