如何确保大模型的决策过程是可解释和透明的?有哪些方法可以增加模型的解释性和可理解性?

金融行业对于决策的解释和透明度要求较高。大模型的黑盒特性和复杂性可能会对模型的解释性和可解释性提出挑战。确保模型的决策过程是可解释和可理解的,以满足监管和合规的要求,是一个重要的问题。如何确保大模型的决策过程是可解释和透明的?有哪些方法可以增加模型的解释性...显示全部

金融行业对于决策的解释和透明度要求较高。大模型的黑盒特性和复杂性可能会对模型的解释性和可解释性提出挑战。确保模型的决策过程是可解释和可理解的,以满足监管和合规的要求,是一个重要的问题。
如何确保大模型的决策过程是可解释和透明的?有哪些方法可以增加模型的解释性和可理解性?

收起
参与14

查看其它 3 个回答苟志龙的回答

苟志龙苟志龙课题专家组高级工程师中国民生银行

相比于小模型,大模型的价值是由其(复杂网络架构及大参数量努力下的)“涌现”带来的,我们需要面对这个事实。

统计学习和传统机器学习,在判别式应用场景下的模型可解释,可通过相对成熟的LIME、SHAP以及EML等技术得到,业界已有大量实践。

主打生成式应用场景的大模型,想获得“涌现”所带来的能力,同时还保障模型可解释,这个挑战难度就大了非常多。所以现阶段谈大模型的模型可解释和透明,真的为时过早。比较现实一点的做法是,做好模型结果应用的审核及监控,将风险控制在可接受范围内。

银行 · 2024-02-04
浏览420

回答者

苟志龙
高级工程师中国民生银行
擅长领域: 人工智能大数据智能风控

苟志龙 最近回答过的问题

回答状态

  • 发布时间:2024-02-04
  • 关注会员:5 人
  • 回答浏览:420
  • X社区推广