IBM团队开发新的AI算法,可以过滤侮辱性语言并以礼貌用语来代替
2018年06月05日 由 浅浅 发表
950467
0
这是记者们经常重复的一句话:从不读评论。评论部分的内容,可能会是互联网上最黑暗的地方之一,那些毫无根据的侮辱和尖锐的批评像混战中的子弹一样。
为了把我们从这个泥潭中拯救出来,IBM的工程师创建了一个AI算法,试图从信息中过滤出具有亵渎性的语言,并提出更多适合的选择。
研究过滤亵渎性语言AI的科学家们意识到他们的过滤器如何被滥用。例如,专制政府或超越技术公司可以使用类似的算法来标记在线交谈的人的带有政治意味或其他批判性的语言。而且由于各国政府已经在努力清理网上的谣言,所以想象一下,如果这样的工具在错误的人手中就会具有破坏性,这并不是一件容易的事。
因此,研究人员认为他们的算法应该用于提供温和的提示和建议,而不是简单地改变冒犯性的语言。例如,一个类似于微软Clippy的工具可能会弹出并询问,“你真的想告诉这个陌生人XX去死吗?”而不是自动编辑你输入的内容。
在这方面还有很多优点,会让你在发送内容之前先冷静下来。
在经过数百万条推文和Reddit的帖子的训练之后,AI系统在消除亵渎和仇恨词语方面变得非常有效。但是,用一种礼貌的方式来重现句子的表现却不那么好。
例如,一条推文“不要重色轻友”被转换成“不要重钱轻友”。当然,这比现有的语言过滤AI要好得多,它将同一条推文转换成了“明天去俱乐部”。
此外,无论背景如何,很多骂人的话都变成了“big”。一篇Reddit的帖子上写着“What a fucking circus this is”,最后转换成了“what a big circus this is.”
到目前为止,研究人员已经简单地创建了他们的算法,但是并没有将它整合到一个可用的网站上。据推测,在可能被应用之前,它必须在建议新语言方面做得更好。
除了这些明显的缺点之外,该算法背后的团队意识到了它的局限性。这类AI过滤器只能用于清除最显而易见的侮辱语言。例如,它不能判定一个特定的句子是否带有侮辱性意思,除非它包含特定的愤怒或亵渎的词语。如果语言本身看似良性或者需要上下文来理解,它就无法辨别了。
当然,语言过滤器不能结束互联网的恶意,但是这个新的人工智能研究可以帮助我们退后一步,并让你在决定继续发布带有恶意的言论之前冷静地思考。