作者:Holly Vatter, IBM市场部人工智能资深产品经理

3大理由决定企业 AI 必须“负责”-风君雪科技博客

责任是一种后天习得的行为。 随着时间的推移,我们清晰地认识到满足社会期望、遵守规则和法律以及尊重他人权利的必要性。 我们弄清楚了责任、问责制和后续奖励措施之间的联系。 如果我们负责任地行事,那么我们会获得积极的回报;反之,我们则可能会面临不良后果,包括罚款、失去信任或地位,甚至被监禁。 遵守负责任的人工智能 (AI) 标准也是如此。

如需了解IBM技术、产品和服务的更多信息,点击访问IBM官网。

Gartner 预测,到 2025 年,人工智能 (AI) 软件市场将达到近 1348 亿美元。

构建负责任的 AI

随着 AI 以及构建和缩放模型对企业的业务越来越重要,一个高度相关的主题便是如何实现负责任的 AI (RAI)。 企业越来越需要积极地推进公平、负责任且合乎道德的决策,并遵守现行的法律法规。

管理风险和声誉

没有企业愿意因为丑闻而出现在新闻中,媒体上最近经常报道一些关于不公平、不可解释或带有偏见的 AI 的案例。 企业需要保护个人隐私并加强信任。 基于错误数据或假设而采取的错误或带有偏见的行为可能导致被起诉并失去客户、利益相关者、股东和员工的信任。 最终,这可能导致企业声誉受损以及销售和收入损失。

坚持道德原则

推进道德决策的意义在于不偏袒任何群体,这就要求在数据采集、构建、部署和监控模型的过程中建立公平性并检测出带有偏见的行为。 为了做出公平的决策,企业还需要能够适应行为模式和概要文件的变化,这可能需要在整个 AI 生命周期中重新训练或重建模型。

根据政府法规提供保护并进行扩展

AI 法规正在快速完善和变化,不合规事件可能导致昂贵的审计费用、罚款和负面新闻。 在多个国家/地区设有分支机构的跨国企业在满足当地和国家/地区的特定规则和法规方面面临一些挑战。 而医疗保健、政府和金融服务等高度监管市场中的企业在满足行业特定法规方面则面临更多的挑战。

“不合规事件的潜在成本十分惊人,它远不止于被罚款那样简单。 首先,如果发生一次不合规事件,企业将平均损失 587 万美元的收入。 但这只是冰山一角 – 财务影响远远超出了您的最终收益。

负责任的 AI 需要治理

Gartner 将“AI 治理”定义为“为应用和使用人工智能技术而制定政策、分配决策权并确保企业对风险和投资决策负责的过程”。

尽管是出于善意,而且技术也在不断进步,但实现负责任的 AI 还是困难重重。 负责任的 AI 需要 AI 治理;对于许多企业来说,这就需要完成大量的手动工作,而更改数据和模型版本以及使用多种工具、应用程序和平台则会加大手动工作量。 手动的工具和流程可能会导致代价高昂的人为错误,并导致模型缺乏透明度、正确的编目和监控。 这些“黑匣子”模型可能会产生即使是数据科学家和其他关键利益相关者也无法解释的分析结果。

在解决由管理层、利益相关者和股东提出的模型性能问题时,可解释的结果至关重要。 客户有理由要求公司负责解释分析决策的理由,包括信贷、抵押贷款和学校录取被拒,以及医疗保健诊断或治疗的细节。 向审计师或监管机构说明分析决策的理由时,还必须提供记录在案且可解释的模型事实。

了解有关构建 AI 治理的更多信息

IBM watsonx.governance – 推进负责任、透明和可解释的 AI 工作流程

IBM 自动治理方法可帮助您指导、管理和监控企业的 AI 活动。 通过采用软件自动化,此解决方案有助于增强您满足法规要求和解决道德问题的能力(无需额外支付转换当前数据科学平台的成本)。

在整个 AI 生命周期中,watsonx.governance 解决方案可以监控并管理模型的构建、部署和监控过程以及事实集中过程,从而实现 AI 透明度和可解释性。 此解决方案的组件包括:

· 生命周期治理 – 就地监控、编目和管理 AI 模型。 自动捕获模型元数据并提高预测准确性,以便确定 AI 的使用方式以及需要返工模型的位置。

· 风险管理 – 根据业务标准,自动生成模型事实并自动执行工作流程。 大规模识别、管理、监控和报告风险及合规情况。 使用动态仪表板为利益相关者提供可定制的结果。 加强跨多个区域和地理位置的合作。

· 法规合规性 – 将外部 AI 法规转化为可自动实施的策略。 更严格地遵守审计和合规性法规,并向主要利益相关者提供定制报告。

想要了解 IBM watsonx.governance 是如何帮助企业构建负责任的 AI 吗? 立即联络 IBM 专家

3大理由决定企业 AI 必须“负责”-风君雪科技博客

如需了解IBM技术、产品和服务的更多信息,点击访问IBM官网

或扫描以下二维码进行访问:

3大理由决定企业 AI 必须“负责”-风君雪科技博客