ML 模型拟合不足:如果公司不改变其机器学习方法,那么他们 为了应对这种转变,公司部署了三种 最终会过度拟合模型,因为过去的例子不再能很好地代表未来。公司缓解这种情况的一种方法是故意让模型拟合不足。对他们来说,一个适度但可靠的模型比一个在纸面上看起来很棒但会导致意外的模型要好,例如人工审核队列被淹没或更多的退款和欺诈。
基于规则的模型
一些公司将他们的机器学习系统恢复为基于规则的系统。这 海外数据 些系统需要更少的历史数据,并且需要更多的人类直觉和监督——对于试图应对疫情突然起伏的团队来说,这是一个诱人的选择。然而,这种方法也需要多个步骤进行验证,这可能会影响用户体验。
人工审核
其他公司很早就意识到他们需要进行更多的人工审核,但由于 相关 写作并不是传递信息的唯 的休假和招聘挑战,他们不能仅仅雇佣更多人。取得成功的公司是那些通过为现有团队提供更好的培训和工具来更好地利用现有团队的公司。依靠人类判断是他们应对 高报 邮寄线索 酬的 新欺诈模式的最佳方式。然而,组织使用机器学习来阻止欺诈是有原因的。这不仅是因为扩大人力队伍的难度,还因为机器在检测模式方面更优秀、更快。人类无法分析足够的数据来牢牢掌握正在发生的欺诈模式。
在疫情期间,那些在人工判断方面表现出色的公司更有能力开始为未来构建更好的机器学习模型。