强化学习作为可解释的人工智能

强化学习作为可解释的人工智能

在商业领域,机器学习(ML)工具的采用已经从提高员工的技能和释放他们的创造力来增加价值中看到了生产力的好处。然而,ML模型的“黑盒”性质提出了“可解释性”的问题:我们如何知道我们的ML工具已经为正确的原因做出了正确的决定?随着ML的采用走向成熟,我们越来越需要ML工具背后的推理是人类可以理解的。

解释ML行为的一种方法是用我们的思维来评估人们是否准备好做某种工作。这种方法适用于一种称为强化学习(RL)的ML。

评估可以包括以下问题:

  • 在这种情况下你会怎么做?
  • 你能说说你过去的相关经历吗?
  • 你接受过相关培训吗?
  • 这要经过审查吗?

如果我们能将这些标准与ML工具的特性进行比较,它们就能在某种程度上实现可解释性。

RL agent是一种机器学习模型,它可以学习一个策略,然后执行一系列步骤。此策略用于为各种场景选择操作,就像员工可能会遵循操作手册或依赖过去的经验一样。RL代理的一些特性包括:

  • RL代理可以在出现某种情况时指定一个操作,
  • RL代理可以提供用于通知其策略的相关过去经验(如果该情况可用),
  • RL代理可以通过提供某种情况的经验、采取的行动以及结果是否理想来“给予培训”。

业务经理可以准备一个场景脚本和预期的行动,以获得部署在业务流程中的RL代理的信任,而不必担心技术细节——类似于软件测试如何基于行为而不是内部实现建立信任。

强化学习提供了一个采用可解释人工智能的机会,它反映了员工和他们使用的机器学习工具的要求。这激起你的兴趣了吗?取得联系。

参考:

https://www.frontiersin.org/articles/10.3389/frai.2021.550030/full

免责声明:本文中所表达的声明和意见均为作者本人的观点,并不一定反映Thoughtworks的立场。188bet宝金博app下载

想要释放你的数据潜力?

Baidu