领导趋势和新兴技术2023年预测:对道德 AI 的日益关注将影响 ML 的培训和 维护方式,并创造新的角色来完成这一任务。 我们对机器学习日益普及的第三个观察是在不断发展的道德实践方面。在 ML 模型中发现的 无意识偏见的故事经常出现。幸运的是,ML Ops 实践将带来更多的标准化和透明度,使评估 模型的公平性更加容易,也更易于维护和再培训以防止偏见蔓延。



为了获得更多信息,我们求助于 Subho Majumdar, 他可能没有撰写关于 ML 伦理的书,但他肯定与人 合著了一本关于该主题的书(实践值得信赖的机器 学习,刚刚由O'Reilly 出版)。Majumdar 积极参与 多种社区活动 - 值得信赖的 ML 计划、偏见海盗和  AI 漏洞数据库,这些活动旨在指导和教育 ML 从业 者开发公平、安全、稳健、可解释且保护隐私的 ML 模型。Majumdar 说,透明度是公平和其他价值的 必要前提,它变得越来越重要。


“值得信赖的 ML 包括在将人类价值观融入 ML 管道的同时实施 ML。”他说。“我们的目标是从一 开始就建立值得信赖的 ML 管道,这样在模型部署 到现实世界后,你就不会在输出中面临偏见和其他 问题。” Joe Ross 指向模型卡,它提供了关于 ML 模型的简 要文档,增加了模型及其输出的透明度。卡片将描 述模型的用途和局限性,审查偏见和伦理考虑,并 详细说明用于训练模型的数据和方法。 “我们正在 HuggingFace 和其他知识库寻找工作 成果,以确保我们能够理解模型的谱系。”他说。 “这使我们能够在模型中对偏见进行科学演示,作为 检查已知偏见列表的标准审查过程的一部分。” 他说,偏见列表可以成为 ML 质量保证的标准部分, 无论是在模型推出时还是随着时间的推移,因为额 外的数据可能会改变它的输出


除了新的流程,对 AI 伦理的关注也将创造新的就 业机会。Majumdar 预见了 AI 伦理学家和提示工程 师的具体团队角色,他们将专注于提示如何不仅影 响模型输出的准确性,而且影响其潜在的偏差。 “作为一个社区,我们正在向利益相关者提供透 明度。”Majumdar 说。


“如果是政府,这将意味 着透明地遵守任何法规和合规性准则。如果利益 相关者是消费者,就需要有一种方法来提交工单, 或对算法决策的任何担忧进行投诉。已经有一个  事件数据库,用于跟踪已部署的 AI/ML 模型出现的 AI  问题。这有点像疾病预防控制中心的疫苗有效性数 据库,在那里,你可以提交任何因为接种疫苗而发 生的问题。这是一个复杂的领域,所以 ML 社区需 要几年时间来搞清楚它们。但是我确实认为,我们 将会在 ML 中看到更多关于信任和透明度的标准和 最佳实践。” “监管总是在尖端技术的背后,无论你是在谈论区块 链、ML,甚至是电子商务。”Mangesh Pimpalkhare 说。


他希望,我们迄今为止看到的关于数据隐私和 社交媒体等技术的一些最糟糕的结果,将为塑 造下一波技术提供借鉴。“技术的野性将会继续, 但它不会花太长时间来达到一个负责任的终点。 先于立法者建立有效的自我监管,这符合行业的 最佳利益。现在,你可以看到一些自我声明的负 责任的 AI 计划。”


 Splunk 全球影响力计划负责人 Kriss Deiglmeier  也认为,监管不是一个立竿见影的答案,公众不会 满足于等待。“AI 和数据伦理对企业越来越重要, 短期内,企业有责任取得自己的进步。”她说。 “监管将随之出台,但每个国家或地区可能会有所 不同。



领导趋势和新兴技术2023年预测  相关文章:


2023年预测:大型语言模型是下一个变革性的 AI/ML 技术

2023年预测:对道德 AI 的日益关注将影响 ML

2023年预测:NFT 将会为所有权和身份问题提供保障

新兴技术2023年预测:区块链黑客攻击将会继续

2023年预测:全数字协议将大大提高效率

2023年预测:元宇宙还有很长的路要走

2023年预测: 量子计算将会带来巨大的变革

2023年预测: 更好的数据,更好的技术, 更好的明天