一如往常的突發事件一樣,YouTube 上開始陸續出現一些火災狀況的直播,然而,令人意想不到的是,在數個視頻直播的下方卻出現了美國「911 事件」的新聞標題,並引述了《大英百科全書》中關於該事件的描述。
將這次巴黎聖母院火災與「911 事件」錯誤關聯的,是 YouTube 正在大規模推行的一種算法,這種算法號稱能幫用戶識別並屏蔽假新聞。
如上圖所示,下方的灰色方框內將巴黎聖母院識別為「911 事件」的相關內容,在數個視頻直播中都有出現,但在隨後的幾分鐘,這些信息被一個個移除。雖然相關內容出現時間很短,但還是阻止不了「火眼金睛」的用戶們開始集體吐槽,YouTube 到底使用了什麽技術能將巴黎聖母院突發大火與「911 事件」混為一談?
雖然目前還不清楚巴黎聖母院火災為何觸發了「911 事件」內容的相關推送,但 YouTube 的一位發言人表示,直播畫面下方灰色方框中的內容來自一種算法,這種算法會對當前內容進行識別,並推薦諸如《大英百科全書》等的第三方內容鏈接。這位 YouTube 發言人還表示,「推薦內容欄相關內容由算法自動觸發,針對巴黎聖母院火災,目前看來是算法推薦錯誤。我們目前正在移除與本次火災相關的內容推薦。」
據悉,YouTube 的這種內容推薦是一種新加入的功能,目前僅對美國本土及韓國用戶可用,目的是用來推薦與用戶正在觀看的視頻內容相關的主題,但在推薦過程中,並不會考慮到視頻影像所要表達的觀點或視角。
算法問題出在哪?
今年 3 月,全球社會對假信息的爆發性增長及科技巨頭的不作為抗議聲越來越大,迫於壓力,YouTube 開始嘗試一種新功能,在用戶可能觀看假新聞視頻時及時提醒用戶:Information Panel(信息欄)。這個功能在用戶查找「易於誤傳」的術語或主題時,會向他們提供正確的信息。
據 YouTube 官網對信息欄的功能介紹:用戶可能會在少數常受到網上錯誤信息影響的歷史和科學主題視頻頁面看到來自第三方的信息,包括「大英百科全書」和「維基百科」。
信息欄可能出現在搜索結果中或視頻的觀看頁面上,以提供主題的背景。這將包括來自獨立第三方的基礎、相關信息,並提供第三方合作夥伴網站的鏈接,以允許用戶了解更多有關該主題的信息。
無論視頻中表達的觀點或觀點如何,此信息欄都將顯示在與該主題相關的視頻下。
YouTube 表示,其「第三方合作夥伴」均已通過資格審查,並遵守 schema.org 的 ClaimReview 標記流程。信息欄可能給出諸如「惡作劇警報!」和「假」之類的提示,以提醒用戶可能出現在搜索結果中的錯誤內容。
雖然 YouTube 並沒提供其信息欄所使用的算法,但從 Twtiter 網友所發表的大量誤標截圖中,我們可以推測出,該算法是根據視頻或圖像之間相似之處找出關聯性的 CV(計算機視覺)算法。
隨著各國政府開始逐步立法打擊「假新聞」,谷歌和 Facebook 等社交平台巨頭只能啟用人工智能算法去檢測平台上海量的內容。由於 CV 算法可以有效地辨別類似圖像,這些工具在打擊有「兒童」元素的兒童色情內容,以及「旗幟」「暴力元素」和「標語」等極端恐怖組織相關內容方面頗有成效。
但是,圖像自動檢測系統很難處理沒有預料的突發事件與預設檢查內容之間的相似之處。比如信息欄曾把 4 月 11 日的獵鷹重型火箭發射誤標為「911 事件」,大概率是因為圖像中有「兩個高塔」和「很多煙」。
信息爆炸時代,如何處理虛假新聞?
這次 YouTube 出現算法問題,再一次給我們敲響了警鐘:在這個信息爆炸時代,科技公司,尤其是媒體和社交媒體領域的巨頭,是否真的能完全依靠 AI 和算法識別虛假新聞?
早在 2016 年的美國大選,Facebook 上就曾湧現出大量涉及總統候選人的假新聞,從「FBI 已將希拉蕊定罪」,到「梵蒂岡教皇支持川普」,還有各種婚外情和花邊新聞層出不窮。類似的事情也在 Twitter,YouTube 和谷歌上頻頻出現,轉發和觀看數少則上千次,多則數十萬次。
由於這些文章極具話題性,短時間內就會吸引大量目光,導致社交平台的推薦算法對其「青睞有加」,甚至還會影響到 CNN 這樣的主流媒體跟風跑偏,進一步增加曝光率。
因此,在總統大選這樣關乎一國走勢的重大議題上,假新聞的破壞力遠遠超過微信朋友圈裏的「震驚體」文章。
在被媒體和輿論抨擊假新聞泛濫後,科技巨頭一邊焦頭爛額地忙著刪除新聞和公關道歉,還一邊主動出擊,尋找扼殺虛假新聞的方式。
比如 Facebook 最初想用機器識別替代人類審核員,提高審核效率和準確率,可是效果並不理想。他們在 2015 年推出了一套系統,可以對被大量用戶舉報為虛假信息的鏈接降級。然而在之後的美國大選期間,Facebook 仍然推薦了很多假新聞。
這些新聞獲得了很多的點讚,算法對此無能為力:它還不夠先進,只能通過規律判斷真假,卻沒法驗證信息的真偽。
時至今日,Facebook 擁有近 1.5 萬人的內容審核團隊,專門甄別平台上的虛假新聞和不良信息。但這一方法效率低下不說,對審核員也是一種折磨,因為他們不得不接觸暴力、血腥和種族歧視等陰暗內容。久而久之,有的人還會罹患精神疾病。
做過類似努力的公司還有 YouTube 和谷歌,想要依靠算法建立一個內容檢測機制。這一次引發爭議的「YouTube 事實檢查系統」就是最新舉措,才上線一個多月。
可事實證明,系統背後的算法還是缺少對視頻內容和背景的全面理解。在直播中,它或許僅憑大火和滾滾濃煙,就將視頻與「911」扯上聯繫,錯誤推薦了相關信息。這不禁讓人質疑其鑒別虛假新聞的能力。
雖然人工智能技術正在突飛猛進,但至少目前看來,在內容鑒別領域,自動化系統還無法達到人類的準確性,尤其是在面對突發新聞時。究其原因,還是因為 AI 系統大多依賴規律,不能主動搜集其它證據,綜合多個信源判斷消息是否準確。
這意味著,現階段的虛假新聞檢測,最好還是以人機結合的方式進行。比如用機器完成信息的初步篩選,減少工作負擔,提高效率,而人類則負責監督機器,保證最終結果的準確率,降低漏網之魚出現的可能性。
更重要的是,審核員可以發現算法的漏洞,幫助機器識別技術更好地發展。未來的某一天,AI 系統就可以真的獨當一面了。
本文係由DeepTech深科技授權刊登。原文連結: 将巴黎圣母院大火与“911事件”混为一谈?YouTube算法再次失灵,AI判断新闻还须人类校对