扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
现如今,AI的智能、自主及高效程度又来到了一个发展高潮,成为人类完成日常工作、改善生活、提升幸福感的得力助手。但同时,由于是人类赋予了AI系统自主决策的能力,因此,许多人开始提出,人类需要对AI“负责”。
如何负责?其中包括三大核心,即问责制、责任制和透明度。这三点构成了AI的A.R.T原则。
然而,当前的大部分算法虽然高效,却缺乏透明度。为此,许多专家和机构正在不断研究,希望能够提高对深度学习算法的透明度和可解释型。比如,谷歌一直呼吁的就是“公平而负有责任”的AI研发。
对此,不久前普华永道(PwC)公布了一个“负责任的AI框架(Responsible AI framework)”,强调了专用AI提高结构性能,提高AI透明度的重要性。
该框架包括了四大部分:战略、设计、发展及AI的运行:
此外,另一咨询公司埃森哲近日也透露,企业将很快能为AI系统提供专门的测试服务。通过其推出的AI测试服务,企业能够利用自身的基础设施或云计算建立可靠的AI系统,并进行监控和测量。此外,还包含面向团体机构的测试策略、工程、数字和企业技术。
埃森哲技术服务集团首席执行官Bhaskar Ghosh表示:“企业在推动创新和发展的过程中,见证了转变的价值,因此正加速推广AI。随着AI融入各企业,为确保其安全和质量,避免对企业业绩、品牌声誉、规则等造成负面影响,寻求更佳的方式训练维持这些系统,就变得至关重要。”
通过“教学与测试”方法,将确保AI系统以两种不同方式作出正确决策:
“教学”阶段负责检测用于训练机器学习所选用的数据、模型和算法,统计评估不同模型以达成最佳的生产模式的同时,遵守道德规范,避免性别、种族等偏见。
“测试”阶段将对比AI系统的所有输出结果与企业内部的关键性能指标,评估系统是否能解释某决策或输出的依据。埃森哲表示,为维持系统性能,该阶段采用了创新技术与云计算工具持续监测系统。
一家金融服务公司曾用该方法训练了会话虚拟客服。据该公司称,其训练速度较之前提升了80%,客户推荐服务的准确率高达85%。不仅如此,它还被用于训练情绪分析解决方案,评估某品牌的服务水平。
埃森哲高级管理总监兼战略及全球测试服务负责人Kishore Durg表示:“AI测试系统仍面临着一些挑战。传统应用程序测试的预设场景数量有限,因此结果不太可靠。而AI系统需要的是无限量的测试方法。因此,我们还需掌握数据评估、模型学习、算法选择、偏见监测及遵从道德法规等能力。”
无论如何,我们看到随着AI的应用前景愈发明朗,越来越多的利益相关方和企业正着眼于解决AI算法的“黑匣子”问题。我们也相信,一旦这一问题得以解决,AI 技术在企业中的创新与应用将出现一个质的飞跃。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。