智能写作-人工智能指数式发展可能威胁人类生存
编辑:pitaya02 日期:2020-11-14
许多人都看过《终结者》,它展示了机器如何变得有自我意识,从而可能毁灭人类。AI是如此的强大,它可以帮助人类变成多行星物种,或者像世界末日一样毁灭人类。
调查显示,超过30%的人工智能专家认为,实现人工通用智能并没有更糟,只有最糟。为了防止灾难性的后果,最有力的武器是理解人工智能系统的运作方式,这样才能使用制衡机制。
(3)解决人工智能方面的争端需要依据和解释
近两百年来,随着人权与自由的不断发展,现有的法律法规在一些敏感领域都要求具有一定的解释性。可解释性的边界问题也涉及到法律论证和推理领域。
AI应用取代了一些传统职业,但这并不意味着这些职业的管理者不需要解释。它们必须遵循相同的规则来解释服务软件。普通法原理要求操控者在发生法律纠纷时对自动的决定做出解释。举例来说,特斯拉无人驾驶汽车撞到了行人。
但一般规定原则并非强制解释的唯一理由,现代立法也存在着不同形式的强制解释。欧盟《通用数据保护条例》(GDPR)规定,当个人接受自动决策时,必须对人工智能系统的逻辑做出合理解释。
在美国,公民有权得到他们拒绝贷款申请的理由。实际上,正如上文图表所示,这种权利迫使信用评分公司在给客户评分时采用回归模型(解释能力更强),以便能够提供强制解释。
火龙果智能写作是全球第一款中英双语语法检查校对产品,运用火龙果智能写作技术进行错别字文本校对,除错别字校对以外,还可以对语法、标点等进行校对。
火龙果智能写作官网https://www.mypitaya.com
积极拥抱变化,才能更好的应对这个时代