加入收藏 | 设为首页 | 会员中心 | 我要投稿 柳州站长网 (https://www.0772zz.cn/)- 基础存储、数据迁移、云安全、数据计算、数据湖!
当前位置: 首页 > 站长资讯 > 评论 > 正文

Flash把这经典软件也带崩了!

发布时间:2021-01-27 13:53:41 所属栏目:评论 来源:互联网
导读:误解七:做测试员赚不了多少钱。 如果这种说法用在测试人员身上,那就大错特错了。这种思想可能需要转变一下。即便如此,薪酬取决于很多因素,把测试员这一身份作为薪酬较低的唯一原因是错误的。 误解八:测试员得不到赏识。 软件测试有时像是一种吃力不讨好

误解七:“做测试员赚不了多少钱。”

如果这种说法用在测试人员身上,那就大错特错了。这种思想可能需要转变一下。即便如此,薪酬取决于很多因素,把测试员这一身份作为薪酬较低的唯一原因是错误的。

误解八:“测试员得不到赏识。”

软件测试有时像是一种“吃力不讨好”的工作,这取决于公司文化对团队的重视程度。试着保持积极的心态,并用工作证明一切。我认同以下说法:如果公司和客户欣赏QA团队,事情会好办很多。但如果他们不欣赏QA团队,我们也不必低估自己。

误解九:“测试员拖慢项目交付进度。”

不管是否与开发团队同时开始工作,测试人员都必须等到开发彻底完成后才能开始测试。这就给人一种粗略的印象,即测试一次又一次地拖慢项目进度。

如果在计算机上对测试周期进行预先计划,就不会出现这个问题。因此,测试不是使项目延迟的原因,不正确的计划和不合理的预期才是罪魁祸首。

误解十:“自动化测试人员不必担心手工测试。”

没有什么比这种说法更令人难以置信了。

自动化测试也是测试,不同之处在于测试的方式。不要忘了,自动化测试一直延续或遵循着手工测试的流程。不是所有的项目都是自动化项目,同样地,同时掌握手工测试和自动化测试的测试人员也是很罕见的。
 

如你所见,一个人工智能开发人员依靠传统算法而非深度学习模型的损失良多。所以,我们看到越来越多的精确模型与日俱增,而其可解释性却越来越低。但是,我们需要可解释性更甚于以往。

越来越多的人工智能系统被应用于某些敏感领域

还记得以前人们在战争中使用真刀真枪吗。是的,一切都在改变,远超你的想象。智能AI无人机已经可以在没有人为干预的情况下干掉任何人。一些军队也已经有能力实施这些系统;但是,他们也对未知的结果感到担忧。他们不想依赖那些自己都不清楚运作原理的系统。事实上,美国国防部高级研究计划局已经有一个正在进行的XAI项目。

无人驾驶汽车是另一个例子。现在已经可以在特斯拉汽车上使用自动驾驶仪了。这对司机来说是极大的便利。但是,与之而来也有巨大的责任。当你的汽车遇到道德困境时,它会怎么做;在道德困境中,它必须在两个罪恶的抉择中选择损失较小的一个。

例如,自动驾驶仪是否应该牺牲一条狗来拯救一个路上的行人?你也可以在麻省理工学院的道德机器上一睹集体道德和个人道德。

日复一日,人工智能系统在更大程度上影响着我们的社会生活。我们需要知道它们在一般情况和特殊事件中如何做出决定。

人工智能的指数级增长可能会造成生存威胁

我们都看过《终结者》,目睹了机器如何具有自我意识,并可能毁灭人类。人工智能是强大的,它可以帮助我们成为一个多星球物种,同时也可能完全摧毁我们,就如《启示录》中的场景一样。

事实上,研究表明,超过30%的人工智能专家认为,当我们实现通用人智能(ArtificialGeneral Intelligence)时,结果要么糟糕,要么极其糟糕。所以,防止灾难性后果的最有力武器就是了解人工智能系统的工作方法,这样我们就可以使用制衡机制,就如限制政府权利过度一样。

解决人工智能相关争议需要推理和解释

由于过去两个世纪人权和自由的发展,目前的法律及条例已经要求在敏感领域有一定程度的可解释性。法律论证和推理领域也涉及可解释性的界限。

人工智能的应用程序仅是接管了一些传统的职业,但这并非代表它们的控制器就不负责提供解释。它们必须遵守同样的规则,也必须为其服务提供解释。一般法律原则要求在发生法律纠纷时(例如,当自动驾驶的特斯拉撞上行人)对自动化决策作出解释。

但是,一般规则和原则并不是要求强制性解释的唯一理由。我们也有一些当代的法律法规,规范了不同形式的解释权。

欧盟的《通用数据保护条例》(GDPR)已经定义了解释权,当公民受到自动化决策的约束时,有必要对人工智能系统的逻辑进行合理的解释。

另一方面,在美国,公民有权获得拒绝其信贷申请的解释。事实上,这种权利迫使信用评分公司在给客户评分时采用回归模型(这一模型更易于解释),以便他们能够提供强制性的解释。

消除人工智能系统的历史偏见需要可解释性

自古以来人类就有歧视现象,这也反映在收集的数据中。当一个开发人员训练一个人工智能模型时,他会给历史数据灌以所有偏见和歧视性元素。而如果观测有种族偏见,模型在进行预测时也会映射这些偏见。

巴特利特(Bartlett)的研究表明,在美国,至少有6%的少数族裔的信贷申请纯粹是由于歧视性惯例而被拒绝。因此,用这些具有偏见的数据来训练一个信用申请系统将对少数民族产生毁灭性的影响。

对一个社会而言,我们必须了解算法是如何运行的,以及如何才能消除偏见,这样才能保证社会自由、平等和博爱。

自动化业务的决策需要可靠性和信任度

从金融角度来说可解释性也是有意义的。当使用一个支持人工智能的系统来为组织的销售和市场营销工作建议具体的行动时,你可能会好奇它为何会如此建议。

决策者们必须明白为什么他们需要采取特定行动,因为他们将为此行动负责。这对实体企业和金融企业都意义重大。尤其是在金融市场,一个错误的举动会让公司付出高昂的代价。

如你所见,这些观点有力论证了为何我们需要可解释的人工智能。这些观点来自不同的学科和领域,如社会学、哲学、法学、伦理学和商科。因此,我们需要人工智能系统的可解释性

(编辑:柳州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读