在商业领域,机器学习(ML)工具的采用已经从提高员工的技能和释放他们的创造力来增加价值中看到了生产力的好处。然而,ML模型的“黑盒”性质提出了“可解释性”的问题:我们如何知道我们的ML工具已经为正确的原因做出了正确的决定?随着ML的采用走向成熟,我们越来越需要ML工具背后的推理是人类可以理解的。
解释ML行为的一种方法是用我们的思维来评估人们是否准备好做某种工作。这种方法适用于一种称为强化学习(RL)的ML。
评估可以包括以下问题:
如果我们能将这些标准与ML工具的特性进行比较,它们就能在某种程度上实现可解释性。
RL agent是一种机器学习模型,它可以学习一个策略,然后执行一系列步骤。此策略用于为各种场景选择操作,就像员工可能会遵循操作手册或依赖过去的经验一样。RL代理的一些特性包括:
业务经理可以准备一个场景脚本和预期的行动,以获得部署在业务流程中的RL代理的信任,而不必担心技术细节——类似于软件测试如何基于行为而不是内部实现建立信任。
强化学习提供了一个采用可解释人工智能的机会,它反映了员工和他们使用的机器学习工具的要求。这激起你的兴趣了吗?取得联系。
参考:
https://www.frontiersin.org/articles/10.3389/frai.2021.550030/full
免责声明:本文中所表达的声明和意见均为作者本人的观点,并不一定反映Thoughtworks的立场。188bet宝金博app下载