取消
普通评论
普通评论

银行业如何应对“机器人行为错误”

亿欧网2019-01-17 11:58
人工智能银行业机器人
数字银行 收藏

  全球银行业正在积极实施运用机器学习应用程序处理由人工操作完成的各类岗位工作,从客户服务到自动化的理财投资选择。然而,银行机构是否准备好了应对机器人行为错误可能造成的严重后果?

  金融机构已建立起各种完善的系统以监督和防范人工行为错误,近年来将系统监督范围扩大到社交媒体和其他新技术,然而机器行为错误完全是另一码事。机器行为涉及合规、风险管理、人力资源和技术多个领域,大部分银行并没有建立负责机器行为管理的专职部门。

  如果银行希望挖掘利用机器学习应用程序的巨大价值潜力,上述状况必须改变。正确使用机器学习应用程序可为银行和客户双方带来显著的收益。机器学习应用程序可为银行提供更好的客户研究洞见和解决方案,并提高从客户接触服务界面到后台各项职能的效率水平。

  “86%的银行高管认为人工智能技术的广泛应用可带来除节约成本以外的竞争优势。”

  然而,银行还必须严格审查机器学习应用程序带来的一系列道德影响,审查严格程度等同于对工作求职者的履历背景、道德表现和文化契合度的审核。糟糕的机器人可能损害和影响银行声誉和营收。由于机器行为错误完全是一种数字化现象,相关问题通常迅疾传播扩散,导致可能对银行组织和客户造成严重影响的一连串反应。

  那么,银行如何一方面加强机器风险管理,同时继续鼓励创新并挖掘利用机器学习的巨大潜力呢?

  首先,银行机构需要针对各项机器学习工作制定严格的机器人开发和数据治理规范标准,标准制定从理清全行所有机器学习应用程序入手。银行业的现状是许多银行内部开发团队各自为政,上线新的应用程序,各个团队需要具备全行整体大局观念。

  接下来,银行必须深入扎实地做好数据管理工作。银行已经深入了解市场数据和其他每日流出流入的数据,但机器学习应用程序引入了来自社交媒体和客户服务界面的海量新型数据,这些新型数据需要进行分类和监测,这些新形式数据的治理也需要达到交易数据和其他财务数据的治理标准。银行每位员工和每个团队必须认真严格地甄别数据,发现可能干扰机器学习应用程序结果的任何数据。

  银行在上线新的应用程序前应开展审查和批准流程,平衡好全行风险管理和创新推动两者的关系,每个应用程序导入生态系统的新数据和决策都可能对其他职能部门产生破坏性影响。

  银行还必须建立机器事故问责制。银行已建立了有效的员工责任管理程序:人力资源部门负责员工行为监督和其他道德考核;监管合规部门负责银行规章制度和监管法规的贯彻执行;员工行为团队负责监督员工与客户的互动和沟通;风险管理团队负责确保所销售的产品不会为银行招致风险和损失。

  与上述人员管理类似,银行需要从治理和控制每类机器潜在的连带风险目标出发,对机器学习应用程序进行分类,分类体系内容包括岗位划分、职责、步骤程序三个方面,例如新机器开始向客户推送不适当的投资建议,这一问题的责任起初归咎于技术团队,技术团队可能转而指责销售团队或模型风险管理团队,而合规或其他部门可能丝毫没有被牵扯进去。

  为确保有能力对机器风险做出适当的反应,银行必须提高每个治理职能部门的技术专业水平,从风险管理、合规部门一直到人力资源部门,银行需要在这些部门领域增设数据科学家或其他技术专员岗位,确保在应对机器风险过程中发现真正的症结问题并支持监督决策。

  最后,机器学习用于决策还涉及各种道德考量,银行高管应积极参与这一决策体系的开发。

  机器学习应用程序赋能银行以新的运营方法为客户、员工、股东和社会创造价值,但是银行必须清醒地认识到机器学习的风险,并且快速、系统地应对和解决风险问题。一旦缺乏完善的治理机制,机器学习灾难的发生将为时不远了,灾难可能产生严重的道德、法律和财务多方面影响。

责任编辑:Rachel

点击加载

点击加载

发送
普通评论
发送
普通评论
普通评论

为你推荐

暂无相关推荐