智能校对-人工智能系统中历史偏差现象如何解释?

编辑:pitaya02        日期:2020-11-15

人类对不同群体的歧视从来没有停止过,所收集的数据也反映了这一点。开发者在训练人工智能模型时,会将人工智能中的偏见和歧视因素输入历史数据。假如我们的观测存在种族偏见,那么模型也会把这种偏见投射到预测中。

Bartlett的研究显示,至少有6%的美国少数民族申请贷款,因纯粹的歧视而遭到拒绝。所以,把这些有偏见的数据用于培训信贷申请系统,会给少数民族带来灾难性的后果。身为社会成员,我们必须了解算法是如何运作的,人类是如何消除偏见,从而确保社会的自由、平等和博爱。

商业决策自动化需要可靠和信任

可解释性在财务方面也具有一定的意义。当你使用人工智能系统为公司的销售和市场工作推荐一个特定的计划时,你可能会想知道它的理由。政策制定者对方案有责任,因此必须明确采取这个方案的理由。无论是对实体企业还是金融企业,特别是对金融市场来说,一次决策失误就会给企业带来巨大的损失。

火龙果智能写作是全球第一款中英双语语法检查校对产品,运用火龙果智能写作技术进行错别字文本校对,除错别字校对以外,还可以对语法、标点等进行校对。

火龙果智能写作官网https://www.mypitaya.com

积极拥抱变化,才能更好的应对这个时代



智能写作-李开复关于人工智能的介绍与看法