您现在的位置是:首页 >财经 > 2021-04-11 20:12:37 来源:
维基百科介绍了AI学习识别错误编辑
导读 维基百科宣布将推出一款人工智能引擎,以帮助识别恶意编辑文章的严重编辑的内容和破坏者,以试图监管开源项目。机器学习工具 - 称为目标
维基百科宣布将推出一款人工智能引擎,以帮助识别恶意编辑文章的严重编辑的内容和破坏者,以试图监管开源项目。机器学习工具 - 称为目标修订评估服务(ORES) - 已由社区的研究人员和专家进行整理,并将在某种程度上实现编辑过程的自动化,并确保内容始终公平和值得信赖。
此外,这意味着可以审查更多文章,如果发现它们是恶意的或不正确的,则删除或更新。ORES使用API和训练模型来对抗 由维基百科编辑(通常称为维基百科)编辑和文章质量评估。然后,它会根据这些个人编辑和文章整体创建一个分数。
API使用各种不同的参数进行测试,例如信息是否可能具有破坏性,并以JSON格式输出响应。对于未评估的修订版,已经评分的修订版的评分为50毫秒,中间时间刻度为50毫秒,并且可以在维基百科支持的20种语言中的14种中计算。
“通过结合开放数据和开源机器学习算法,我们的目标是使维基百科的质量控制更加透明,可审计,并且易于实验,”维基百科说。
“我们希望ORES能够在我们如何进行质量控制方面取得重大进展 - 这些都将使质量控制工作更加高效,并使维基百科成为新编辑的一个更受欢迎的地方。”
维基百科一直在使用十几种编辑工具测试该服务,并表示它已经在预测的准确性方面击败了最先进的系统。
ORES开发的下一个阶段是支持更多wiki,自动编辑分类和偏差检测。