打开人工智能“黑盒” 华夏基金首席数据官参与撰写书籍上市
摘要: 人工智能与人类紧密的结合,使得智能化的人机协同成为大势所趋。而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制、潜在风险及防范措施,
人工智能与人类紧密的结合,使得智能化的人机协同成为大势所趋。而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制、潜在风险及防范措施,以通俗易懂的方式向人类说明,成为发展可信赖、安全可靠人工智能的首要任务。在此背景下,华夏基金首席数据官陈一昕、杨强、范力欣、朱军、张拳石、朱松纯、陶大程、崔鹏、周少华、刘琦、黄萱菁、张永锋等12位来自机器学习、计算机视觉、自然语言处理,以及在生物医疗、金融、推荐系统等应用领域的着名专家,联合创作了《可解释人工智能导论》一书,现已重磅上市!
《可解释人工智能导论》一书全面介绍可解释AI的基础知识、理论方法和行业应用。全书分为三部分,共11 章。第1章揭示基于数据驱动的人工智能系统决策机制,提出一种基于人机沟通交互场景的可解释人工智能范式。第2~5 章介绍各种可解释人工智能技术方法,包括贝叶斯方法、基于因果启发的稳定学习和反事实推理、基于与或图模型的人机协作解释、对深度神经网络的解释。第6~10 章分别介绍可解释人工智能在生物医疗、金融、计算机视觉、自然语言处理、推荐系统等领域的应用案例,详细说明可解释性在司法、城市管理、安防和制造等实际应用中发挥的积极作用。第11 章对全书进行总结,并论述可解释人工智能研究面临的挑战和未来发展趋势。
为什么要强调人工智能的可解释性?可解释性在日常生活当中比比皆是,比如一位医生在向一位病人解释诊断结果和治疗措施时,要给病人一个好的病因和治疗解释,让病人放心。但由于核心AI算法,尤其是深度学习算法,通常运行在类似于“黑盒”中的工作模式下,导致AI系统的运行结果,并不能以合乎情理的方式被人类所理解和认同。在涉及人身财产安全的重大领域中,如金融、医疗、自动驾驶等,模型的可解释性成了决定用户能否信任模型的关键。
华夏基金首席数据官陈一昕提到,在金融领域中,机器学习的可解释性往往需要面对多种对象,包括开发者、使用用户、应用用户、金融监管、社会大众等。不同对象所看重的“可解释性”重点虽各不相同,但都有其必要性。对于开发者来说,算法的“可解释性”可以保证后续调优改进过程的有效进行;对于金融工具的使用用户来说,“可解释性”则可以使机器学习模型像其他传统金融理论或公式一样被理解与接受;对于应用用户,如使用模型的投资研究人员,“可解释性”可以为模型给出的不同资产定价结果做出详细说明;对于金融监管者来说,“可解释性”可以保证其从全流程上对AI模型进行约束并防范金融风险;而对于社会大众来说,任何一门学科的深入发展都是不可或缺的,人们需要对金融机构的决策进行审慎监督。
金融人工智能是一个在不断发展的领域,随着社会共识的加深以及金融人工智能可解释性相关的法律、监管规章的持续完善,可解释性将成为金融AI能够长期可持续应用的必要原则之一。据了解,目前华夏基金正就将可解释机器学习在基金业务领域的落地应用进行积极探索和尝试,将AI技术作为一种辅助性的投资工具,集中应用在辅助评估海量数据集、动态股票筛选、提高投资效率等领域。
人工智能,解释性,AI