Salesforce将AI偏差模块添加到Trailhead

导读 Salesforce正在其Trailhead开发人员教育平台上创建模块,以负责任的人工智能。可以肯定的是,低代码开发人员工具将意味着更多的技术和业务

Salesforce正在其Trailhead开发人员教育平台上创建模块,以负责任的人工智能。

可以肯定的是,低代码开发人员工具将意味着更多的技术和业务专业人员将能够组合算法,并且他们需要了解如何负责任地进行操作。

随着一系列领先的供应商解决此问题,人工智能的道德规范,偏见和透明度已成为技术领域的热门话题。最大的问题是,各个算法本身可能没有偏差,但与其他模型结合使用时会产生偏差。

Salesforce道德人工智能实践的架构师Kathy Baxter说,Trailhead模块旨在解决将与爱因斯坦合作并使用各种模型的员工,客户和合作伙伴。

除了对Salesforce生态系统进行教育之外,Trailhead模块还可以为将来的功能提供信息,以将其内置到爱因斯坦中,而爱因斯坦已经内置了一些AI反偏差工具,并且有更多的飞行员参与其中。Baxter说:“我们正在努力帮助客户理解模型中的内容,解释正在执行的内容并传达其工作方式。”

她补充说,Trailhead将会增加多个关注AI伦理和防止偏见的内容。

偏差是AI中的一个关键概念,一些 学者呼吁加强自治和监管。此外,诸如IBM之类的行业参与者已经推动提高透明度,并推出 了一层软件来监视算法,以查看它们如何协同工作以产生偏差。同时,企业正在努力寻求 可解释的AI。谷歌表示将使用称为TCAV的技术来解决AI,机器学习模型的偏见。

Salesforce的Baxter在博客文章中指出:

随着对AI的访问范围的扩大以及其影响的深度开始显现出来,我们面临着新的问题,即如何确保AI的未来负责,负责和公平-即使它是由未经技术培训或没有AI专业知识的人打造的。建立AI的任何人都必须考虑AI驱动的结果可能对人和社会产生的多米诺骨牌效应,无论是否预期。构建负责任的AI解决方案的第一步是了解模型和训练数据中可能隐藏的偏见,这本身就是一个巨大的挑战。

Trailhead上的AI模块被称为“负责任的人工智能创造”,将涵盖:

道德和人类对技术的使用;

了解人工智能;

认识到人工智能的偏见;

删除数据和算法中的排除项。

关于Salesforce模块的有趣之处在于,AI崩溃课程的设计范围远远超出了数据科学领域,而不仅限于创意专家和业务经理。

Salesforce的观点是,如果不考虑与之相关的职责,就无法使AI民主化。

该模块涵盖了带有偏见和做出公平决策的挑战,以及在大规模数据集扩展时会发生什么。Salesforce的模块还涵盖了各种偏见,例如关联,自动化,确认,社会和交互偏见。