企业在人工智能的采用上需要通过风险管理框架进行强有力的治理
随着人工智能(AI)和机器学习(ML)作为常见的企业功能迅速获得发展势头,对AI技术的道德和负责任使用的担忧也开始浮出水面。为帮助企业构建更加透明和公正的AI框架,全球IT研究和咨询公司发布了名为的新行业蓝图。人工智能被定义为包括机器学习在内的技术组合。这些人工智能系统执行模仿人类智能的任务,例如从经验中学习和解决问题。最重要的是,人工智能可以在没有人为干预的情况下做出自己的决定。机器学习是一种AI过程,其中系统在没有明确指令的情况下从经验中学习。相反,模式是从数据中“学习”和分析的,以根据过去的行为和学习到的模式做出预测。AI和ML通常用于支持或取代人类决策,使用它可以带来多种潜在好处,包括增强客户体验、提高运营效率和自动化业务流程。虽然这使得将AI和ML功能纳入日常企业运营具有吸引力,但必须以明确的期望和简洁的治理程序来处理。由于ML和AI技术在不断发展,因此AI治理和风险管理框架也必须不断发展,以验证适当的保护措施和控制措施是否到位。
为确保负责任、透明和合乎道德的人工智能系统,企业需要审查现有的风险控制框架并更新它们以包括人工智能风险管理和影响评估框架和流程。人工智能治理蓝图中包含的及时研究,该公司建议企业考虑以下关键组成部分,以建立有效的人工智能治理框架:
监控——监控生产中系统或模型的合规性和风险。
企业——人工智能治理企业的结构、角色和职责。
运营模式——人工智能治理如何运作并与其他企业结构合作以交付价值。
风险与合规——与企业风险管理保持一致,确保遵守法规和评估框架。
政策/程序/标准——支持人工智能治理实施的政策和程序。
模型治理——AI/ML模型的问责制和可追溯性。
工具和技术——支持人工智能治理框架实施的工具和技术。
没有放之四海而皆准的AI治理结构。因此,应该鼓励企业在战略、战术和运营层面确定角色和职责;建立人工智能治理委员会;并确定所有支持AI计划的团体。企业的成熟度、规模和企业治理结构将影响人工智能治理结构。
建立有效的人工智能治理框架和计划将帮助企业:
定义AI的问责制和责任。
定义人工智能风险管理框架。
支持以合乎道德、透明和公平的方式使用人工智能。
定义一个框架来支持ML/AI模型治理。
AI治理框架还可用于定义一组指标和关键绩效指标(KPI),以衡量框架实施的成功与否。