北京国家会计学院-管理会计师CNMA招生网站-配图

算法是基于证据且通过数学或统计技术进行计算并输出结果的公式和规则。过去研究发现,决策算法在各种不同领域的表现和人类决策者一样出色,有时甚至比人类更好,如医疗保健领域、司法领域、警务领域,当然还有商业领域。当算法与人工智能和机器学习相结合时,不仅可以输出描述性和诊断性分析,还可以输出高质量预测性和指导性分析,为管理者提供未来局势的预判以及最优资源配置的建议。例如,在辅助管理决策方面,算法可以协助处理大量数据,准确高效地预测出销售和库存水平 , 优化物流路线,识别重要客户的行为模式 , 并评估业务绩效。因此 , 在一系列商业决策中,决策算法便成为会计师及经理人们十分得力的“数字顾问”。

国际“四大会计师事务所目前已对先进的数据分析技术进行了大量投资,目标是要开发出与审计师和其他人类专家具有同等判断能力的人工智能系统。同样,其他全球化组织,如亚马逊、优步和IBM,也在算法上投入了大量资金,以追踪和评估员工的绩效表现。

尽管决策算法确实能够输出高质量的建议,但人们看待数字顾问和人类顾问的方式仍然不同,毕竟决策算法不是人类,机器和无生命体并不具备人性,缺乏自由意志,也不能完全理解决策所处的背景环境。因此,作为数字顾问的决策算法对人们来说还是陌生、晦涩和不被信任的。

本文旨在从管理会计的角度,回顾已有学术研究中关于管理者和员工如何对决策算法做出反应的认识。这里的重点并不是如何去使用决策算法,而是随着人类在商业环境中不断与决策算法交互而产生的心理和行为上的问题。管理会计系统通常被认为有两大职能 : 计划(促进决策)和控制 / 评估(影响决策)。本文首先承认这两大职能并不完全独立,后面也对关于决策算法应用于管理会计这两大职能的最新学术研究进行了系统梳理。最后讨论了组织在决策过程中引入算法时需要考虑的问题。对于研究学者来说,这些问题也可作为未来深入研究的课题。

算法建议的计划(促进决策)作用

一是算法黑箱的不完美、不透明招致反感。管理会计的计划(促进决策)职能是帮助管理者做出更优、更明智的决策。当涉及预测及复杂管理问题估测时,决策算法的优势十分显著。决策算法可以高效、精确、连贯地收集并处理大量数据,而人类管理者的信息处理却在很大程度上受到其认知能力的限制。认知局限也意味着管理者常常依赖于启发式决策,这就可能导致非最优的决策结果。

例如,有学者在其最新的研究中将管理者对保险理赔损失的主观预估同四种机器学习算法的预估结果进行了直接比较。按照保险公司要求,管理者需要对投保人在支付保费后数年的理赔情况进行评估,这种评估需要由资深经理人做出实质性的判断。学者研究了四种机器学习算法:线性回归算法、随机森林算法、梯度提升算法和人工神经网络算法,并发现这些算法的预估结果通常要优于管理者的主观判断。

尽管有强有力的证据表明,算法通常会比人类预测者更有“优势”,但心理学研究发现,人们往往不愿依赖这些数字顾问提供建议。一旦人们意识到算法可能会出错,他们就会倾向于人类做出的较差的预测,而非算法做出的更优预测。重要的是,即使人们意识到算法的平均表现要优于人类预测者,这种“算法回避”的情况还是会发生。这种看似非理性的行为是因为人们对不完美算法失去信心的速度要远远快于对不完美人类失去信心的速度。也就是说,当算法犯了错误,即便错误很小,人们也倾向于失去信心;而当人类预测者犯了错误,即便错误很大,人们仍会更加宽容。

为了解决人们对算法出错的顾虑,如果能够人为地对算法提供的建议进行改动的话,即便只是微调,那么人们对待算法的态度都会更加开放和更有信心,因此也更愿意使用。颇具讽刺意味的是,人们改动算法所提供的建议时往往会使结果变得更差,但即便如此,能够推动个体接受并应用算法的益处要大过算法结果经人为改动后的损减,总体来说在决策上是有净收益的。

人们对算法的反感并不只是因为算法会出错,另一个导致用户不愿依赖算法建议的原因是算法不透明。精准的算法往往是高度复杂的,它们的运行要么是专利私有的,要么是难以解释的。算法仿佛是在一个神秘的黑匣子中运行,这种不透明性加剧了人们对算法的反感。有趣的是,人类的决策过程往往也像一个黑匣子,人类专家和预测者也很少能解释他们给出意见的详细步骤。然而,心理学研究发现,在同等程度的运行“黑匣子性”假设下,人们仍会认为不透明的算法会比人类专家的决策更难理解,这是因为人们从本质上认为自己和其他人类个体更为相似,因此更能理解人类顾问而非数字顾问的决策意见,即便事实并非如此。

算法的不透明也会让人们对算法能力及其可信度产生怀疑。在一项实验中,审计师先收到了“公司管理层的预估过于激进”这一意见,之后实验研究人员请审计师告知他们准备向管理层提出的银行贷款损失准备金的审计调整金额数。贷款损失准备金的预估是十分复杂的,需要管理层的主观判断。研究人员发现,当意见出自公司的专利算法而非公司的专家时,审计师对管理层提出的准备金调整幅度较小,这就表明审计师在与管理层打交道时并不愿依赖算法。此外,如果管理层的预估更多依赖于客观输入而不是主观输入,审计师就会更加不信任算法的建议。重要的是,审计师主要担心算法不具备相关专业知识,这反过来又导致审计师担心他们能否说服管理层根据算法的建议去做更大的审计调整。

认为算法的可信度不及人类专家这一观念也会加剧人类的现有偏见。扮演CEO角色的参与者从算法或产品经理处得到建议,称销售经理做出的产品需求估算需要调整。当建议为坏消息时,参与者会认为算法的建议没有人类的建议可靠,因此算法的建议更不易被采纳。动机性推理偏见会让管理者在听到坏消息时质疑其信息来源的可信度,因此管理者倾向于驳回算法所提供的不利建议。关于算法建议不太可靠的观点在不知不觉中强化了管理者回避坏消息的行为。

虽然动机性推理是一种无意识的偏见,但算法也会加强管理者在预测时的有意偏见。与透明算法相比,不透明、模棱两可的销售预测算法会赋予管理者更大程度上的“道德灵活性”,能让管理者做一些不合乎道德的决策。与道德推脱理论一致,这样的结果可以解释为:当算法不透明时,管理者会感到对自己的行为负有更少的责任。

二是人为干预能否优化决策算法。目前所回顾的研究聚焦于依靠算法建议而得出更优决策的情况,但同时也有一些研究探究了将人类决策与决策算法结果相结合的有效性。在实践中,人类管理者往往可以获得由历史数据训练得到的算法所不能捕捉到的非公开信息。最近的两项研究就证明了运用算法时“人为干预”的重要性。

三是总结及要点。首先,一个组织需要认识到,仅仅投资高质量的算法是不够的,即便算法的输出要优于人类的判断,包括管理者在内的个体在使用算法进行预测和计划时都表现出了一定程度的不情愿。尽管对如何克服“算法回避”的研究依然有限,但算法会出错和算法普遍不透明的观念是“算法回避”的两大成因,前者可以通过赋予管理者是否使用算法的决策权来解决,而解决后者或许就需要提高算法运行和开发的透明度了。

其次,尽管算法经常被誉为解决人类偏见问题的救星,但研究表明,算法会进一步加深无意识和有意识的偏见。那些希望通过赋予管理者算法否决权以期提高算法利用率的组织因此陷入了两难处境。走出这一困境的一个可行的方法与另一个启示有关 :在历史数据有限、未来具有很大不确定性的情况下,决策算法的有效性会下降,此时人类的“软”知识(如对客户及用户的了解)就十分重要,人类的判断相较于算法的建议也会产生更好的结果。最后这一点表明,若要尽可能最大限度地利用算法的优势,就要充分考虑不同决策特点间的细微差别,并基于这种理解在辅助决策中有选择地应用决策算法,而不是采用一刀切的方式将决策算法地毯式铺开。例如,当组织将决策算法应用于决策过程中时,管理者应首先划分出可能会得益于管理者干预的决策类别。研究结果特别表明,当应对不确定的市场环境时,掌握了额外的客户信息和产品信息的管理者在风险―回报的协调上可能更有优势。

评估和控制(影响决策)

一是组织是否可以用算法来评估管理绩效。管理会计的评价和控制(影响决策)功能侧重于激励员工和补救“代理问题”(即道德风险和逆向选择。前者指管理那些不努力工作的员工,后者指员工利用信息不对称进行投机行为)。算法可以处理大量数据向员工提供一致和相关的反馈,这些反馈也可用于绩效评估和控制。通过建立实时“数字看板”,将算法生成的预测分析纳入关键绩效指标(KPI)可以促进员工行为与组织战略目标保持一致。一方面,算法可以更加全面地监督员工工作;另一方面,实时数据获取和跨组织数据交流的便捷性也降低了管理者和员工之间的信息不对称,控制和减少了代理人问题的出现。

利用算法来追踪、监督员工已经受到了很多媒体批评。然而,最近的一项研究发现,与其被其他人监督,员工更愿意接受算法的监督。原因在于受他人监督会唤起被控制的感觉,还增加了被负面评价的可能性,而算法监督可被视为一个提供数据和反馈信息的角色。相对应的是,人们在正式的绩效评估情境下会对算法更为反感。

尽管如此,对算法的应用也存在反对的声音。谷歌人力分析副总裁曾回应过使用算法做人员招聘和人员晋升决策,他认为“人力决策应由人来决定”。员工不喜欢被算法评估的一个原因是,他们认为算法决策是简化论的体现,也就是说,个人工作绩效的定性指标被简化成了不能体现全貌的各种量化标准,有失对更广泛的背景因素的考量。

从理论上来讲,基于算法的绩效评估不受个人偏见影响,理应更加公平(决策算法也会有偏误,特别是当训练算法的数据有偏差或由带入偏见的程序员设计的时候。虽然算法可以克服管理者的某些偏见,但由于算法执行的是预设的计算指令,所以仍受制),这与研究发现似乎有些矛盾。最近的一项研究提供了更加细致的见解,他们阐述了将AI算法应用于绩效评估系统时,员工对于公平的认识。他们发现,相对于白人男性,弱势群体(女性和/或非白人)员工认为基于AI算法的绩效评估系统要比人为绩效评估系统更为公正。

二是总结和要点。尽管用于绩效评估、控制的算法技术在实践中发展极其迅速,但就其应用以及对行为影响的研究仍十分有限。值得注意的是,同基于算法的预测一样,尽管运用算法进行绩效评估可以带来丰厚的经济利益,但管理者和员工对这样的想法依然感到不安。相比之下,以数据收集和提供反馈为目的的算法监督似乎更容易被接受。这一系列初步研究表明,在考虑将算法正式纳入绩效管理流程前,公司可先将算法作为一种信息工具引入,待员工对算法及其使用更加适应后再开始部署。重要的是,员工需要知道在绩效评估和晋升过程中,他们的经理将持续发挥重要作用。

解决对决策算法依赖不足、过度依赖和错误依赖的问题

关于人们对决策算法如何反应和应用的研究在过去几年中不断丰富。但随着技术的快速发展,许多重要问题仍有待充分解答。识别决策算法所涉及的问题和挑战的一个有效方法是通过人与自动化交互的经典视角来审视决策算法的三个使用错误:不用(依赖不足)、滥用(过度依赖)和错用(错误依赖)。

“不用”指的是对算法的不充分依赖。现有很多关于应用算法于管理目的的研究都属此类,它们记录了“算法回避”存在的情况。例如,对“算法回避”的研究集中在人们对算法犯错误的厌恶上,即便是很小的错误。而组织如何才能更好地平衡不同类型算法错误的风险鲜有人研究。以早期的自动化研究为例,这些研究非常关注平衡消极偏误和积极偏误。在商业领域的类比是算法做出的销售预测在多大程度上会过于激进或过于保守,前者可能导致库存积压,后者则意味着销售额的损失。这些不同的预测误差可能会对各职能领域的绩效产生不同的影响。例如,销售经理可能更关心损失的销售额,而生产经理可能希望避免库存过剩。为了增强管理者对算法决策的信任,组织可能首先要对不同类型错误的耐受度进行划分并达成一致认识,以确保不同职能经理和员工均可接受。

随着对决策算法接受度的提高,还有可能出现一个反向的问题,即“滥用”。“滥用”指的是对算法的过度依赖,会导致松懈效应,即管理者没有推翻或纠正某个算法的错误结论。由于驾驶员注意力不集中导致的“无人驾驶”汽车撞车事故就是自动化松懈效应的一个很有名的例证。另一个令人警醒的商业实例是骑士资本集团 2012 年的交易算法事故。当时 30 分钟的错误交易给集团造成了 4000 万美元的损失,最后在人为干预下这场疯狂才得以停止。

综上所述,决策算法对所有管理者来说都是潜在的很有价值的“同事”和“顾问”。然而,就像与任何新同事的磨合一样,组织需要积极地寻找与这些数字顾问沟通的方法,鼓励在位的管理者与它们进行合作,同时充分认识到它们能力上的局限,并进行适当的监督和控制,这样就可以借助数字顾问的帮助,最大化组织的效益。

来源:中国管理会计  作者:郑文心  翻译:王玮坤 宿文迪


会计包括财务会计与管理会计两个方向,大多数人只了解财务会计职称证书,管理会计方向的证书了解甚少,可以简单看下会计证书对比

管理会计师CNMA是由北京国家会计学院推出的管理会计能力水平证书项目,分为初、中、高三个等级,致力于培养具有国际视野、符合中国国情、具有鲜明中国特色的管理会计师人才。

北京国家会计学院-管理会计师CNMA招生网站-证书样式
北京国家会计学院-管理会计师CNMA招生网站-证书样式

关于管理会计师,点击以下文章可以了解更多

管理会计师证书有什么用?

会计职称证书与管理会计师有何区别?

2023年管理会计师报考时间

管理会计师的职位有哪些?

咨询学服宁老师:naicnma(微信),或致电176-1175-1681