IT+可观察性2023年预测:AI 将影响 ML 的培训 和维护方式
IT+可观察性2023年预测: 对道德 AI 的日益关注将影响 ML 的培训 和维护方式,并创造新的角色来完成这一 任务。
我们对机器学习日益普及的第三个观察是在不断发展的道德实践方面。在 ML 模型中发现的 无意识偏见的故事经常出现。幸运的是,MLOps 实践将带来更多的标准化和透明度,使评估 模型的公平性更加容易,也更易于维护和再培训以防止偏见蔓延。
为了获得更多信息,我们求助于 Subho Majumdar,他 可能没有撰写关于 ML 伦理的书,但他肯定与人合写了一 本关于该主题的书。Majumdar 积极参与多种社区活动 - 值 得信赖的 ML 计划、偏见海盗和 AI 漏洞数据库,这些活 动旨在指导和教育 ML 从业者开发公平、安全、稳健、可 解释且保护隐私的 ML 模型。Majumdar 说,透明度是 公平和其他价值的必要前提,它变得越来越重要。 “值得信赖的 ML 包括在将人类价值观融入 ML 管道的同 时实施 ML。”他说。“我们的目标是从一开始就建立值得 信赖的 ML 管道,这样在模型部署到现实世界后,你就 不会在输出中面临偏见和其他问题。”
Joe Ross 指向模型卡,它提供了关于 ML 模型的简要文 档,增加了模型及其输出的透明度。卡片将描述模型的 用途和局限性,审查偏见和伦理考虑,并详细说明用于 训练模型的数据和方法。 “我们正在 HuggingFace 和其他知识库寻找工作成果,以 确保我们能够理解模型的谱系。”他说。“这使我们能够 在模型中对偏见进行科学演示,作为检查已知偏见列表 的标准审查过程的一部分。” 他说,偏见列表可以成为 ML 质量保证的标准部分,无 论是在模型推出时还是随着时间的推移,因为额外的数 据会改变它的输出。
AI 和 ML AI 伦理正在大步前进。 除了新的流程,对 AI 伦理的关注也将创造新的就业机 会。Majumdar 预见了 AI 伦理学家和提示工程师的具体 团队角色,他们将专注于提示如何不仅影响模型输出的 准确性,而且影响其潜在的偏差。 “作为一个社区,我们正在向利益相关者提供透明度。”Majumdar 说。“如果是政府,这将意味着透明地遵 守任何法规和合规性准则。如果利益相关者是消费者, 就需要有一种方法来提交工单,或对算法决策的任何担 忧进行投诉。
已经有一个 AI 事件数据库,用于跟踪已 部署的 AI/ML 模型出现的问题。这有点像疾病预防控 制中心的疫苗有效性数据库,在那里,你可以提交任何 因为接种疫苗而发生的问题。这是一个复杂的领域,所 以 ML 社区需要几年时间来搞清楚它们。但是我确实认 为,我们将会在 ML 中看到更多关于信任和透明度的标 准和最佳实践。 “监管总是在尖端技术的背后,无论你是在谈论区块 链、ML,甚至是电子商务。”Splunk 平台产品管理副总裁 Mangesh Pimpalkhare 说。
他希望,我们迄今为止看到 的关于数据隐私和社交媒体等技术的一些最糟糕的结 果,将为塑造下一波技术提供借鉴。“技术的野性将会继 续,但它不会花太长时间来达到一个负责任的终点。先 于立法者建立有效的自我监管,这符合行业的最佳利益。 现在,你可以看到一些自我声明的负责任的 AI 计划。” Splunk 社会影响力计划负责人 Kriss Deiglmeier 也认 为,监管不是一个立竿见影的答案,公众不会满足于等 待。“AI 和数据伦理对企业越来越重要,短期内,企业有 责任取得自己的进步。”她说。“更多的监管措施将会出台, 但每个国家或地区会有所不同。”