臉書正在推出一套新的工具,以幫助組管理員更好地管理社群,其中包括一個由AI驅動的功能,臉書表示它可以識別在評論中發生的有爭議的或不健康的對話。

這套AI工具被稱為「衝突警報」,目前只是在測試階段,正式推出日期還不確定。

通過使用該系統,管理員可以在評論者使用某些詞匯和短語時創建自定義警報,一旦管理員收到AI系統的警報,他們就可以采取行動,比如刪除評論、將用戶從小組中踢出、限制個人的評論頻率、或限制對某些帖子的評論頻率。

關於這項功能將如何識別出「有爭議或不健康的對話」目前還沒有明確介紹,在征求意見時,臉書沒有提供更多細節。

一位發言人僅表示,該公司將使用機器學習技術對多項信息進行識別鑒定,如回復時間和評論量,以確定用戶之間的互動是否已經或可能導致負面互動。

此外,臉書正在測試其它一些工具,允許管理員暫時限制某些小組成員的活動。如果使用,管理員將能夠決定一個特定的組員每天可以分享多少個帖子和限製的時間。