日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

2020第一季度,Facebook公司删掉了960万句“脏话”

發(fā)布時(shí)間:2023/11/22 综合教程 42 生活家
生活随笔 收集整理的這篇文章主要介紹了 2020第一季度,Facebook公司删掉了960万句“脏话” 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

  圖片來自于《親愛的數(shù)據(jù)》

  文丨《親愛的數(shù)據(jù)》出品人譚婧

  互聯(lián)網(wǎng)上每天產(chǎn)生多少句臟話?這是一個(gè)謎。但是,從 Facebook 公司 2020 年第一季度的《透明度報(bào)告》里,可以窺到一些面貌。

  自 2018 年 5 月以來, Facebook 公司以季度為周期發(fā)布報(bào)告,解釋其辛苦的幕(zi)后(jin)工(tou)作(ru)。在 2020 年第一季度,公司更是成功刪除 960 萬條“臟話”內(nèi)容。

  這是一個(gè)創(chuàng)紀(jì)錄的數(shù)字,高于 2019 年第四季度的 570 萬條,也超過了 2019 年第三季度的 700 萬條。

  2020 年第一季度的全球公眾衛(wèi)生事件,人們有不少壞情緒。

  《親愛的數(shù)據(jù)》出品

  “臟話”是簡稱,直白的理解是,偏激、仇視性話語(Hate Speech)。民間臟話、方言臟話、描述部分人體器官、人身攻擊、種族歧視、性別歧視大抵都包括在內(nèi),如果有沒有想到的,還望海涵。

  每天,打開手機(jī) APP,就看見鍵盤俠“口吐芬芳”,令人大倒胃口。然而,互聯(lián)網(wǎng)上臟話的量級,人工刪除是刪不過來的,而且還會誤判。Facebook 公司的方法是,用人工智能技術(shù)狙擊。

  但凡審查,就會有漏查。Facebook 公司《透明度報(bào)告》有一個(gè)缺陷,就是它沒有提漏查的程度。

  透明與公開,是與公眾溝通的高明手段,蠢貨只有閉嘴這一招。Facebook 公司雖然沒有滿分,但也提供了“榜樣”。

  讓我們看到真善美的存在,也要看到假惡丑如何被干掉。

  在 Facebook 公司第一季度刪除的 960 萬個(gè)帖子中,軟件系統(tǒng)檢測到 88.8%(在用戶看到信息并舉報(bào)之前)。這表明該算法用機(jī)器標(biāo)記了 850 萬個(gè)“臟話”帖子,比上一季度的 460 萬個(gè)增長了 86%。

  2020 年第一季度,除了病毒蔓延,“臟話”也在蔓延。

  Mike Schroepfe,自 2013 年 3 月以來一直擔(dān)任 Facebook 公司的首席技術(shù)官。他借《透明度報(bào)告》發(fā)布的機(jī)會,重點(diǎn)打了一輪人工智能技術(shù)的廣告,宣傳了該公司自然語言處理技術(shù)的進(jìn)步。

  他說:“我們的語言模型變得更大,更準(zhǔn)確,更細(xì)微了。能夠發(fā)現(xiàn)細(xì)致微妙的東西。”

  可惜,Schroepfer 并沒有解釋說明這些系統(tǒng)審查的精確程度,只是說 Facebook 在部署系統(tǒng)之前對其進(jìn)行了廣泛的測試(測試機(jī)器誤判的情況)。

  畢竟一個(gè)把正常表達(dá)識別錯(cuò)誤的機(jī)器,也很讓用戶惱火。

  Mike Schroepfe 引用了新報(bào)告中的數(shù)據(jù),這些數(shù)據(jù)表明,盡管在最近的 25 - 130 萬條中,用戶更經(jīng)常地對刪除內(nèi)容的決定提出申訴(有可能是罵罵咧咧習(xí)慣了,突然被刪,很是不服氣),但后來執(zhí)意恢復(fù)的帖子數(shù)量有所減少(習(xí)慣了)。

  Facebook 的數(shù)據(jù)并未表明仇恨言論在其算法網(wǎng)絡(luò)中漏失了多少。該公司的季度報(bào)告估計(jì)了 Facebook 規(guī)則禁止的某些類型的內(nèi)容的發(fā)生率,但沒有“臟話”內(nèi)容。新聞官宣顯示,自 2019 年夏天以來,暴力帖子數(shù)量有所下降。Facebook 公司“仍在制定一項(xiàng)全球指標(biāo)”。

  缺失的數(shù)據(jù)掩蓋了社交網(wǎng)絡(luò)的臟話言論的真實(shí)規(guī)模。

  西雅圖大學(xué)副教授凱特琳·卡爾森(Caitlin Carlson)說道:“與 Facebook 龐大的用戶網(wǎng)絡(luò)以及用戶對令人不安的內(nèi)容的觀察相比,刪除的帖子數(shù)目(960 萬條)看起來太少了。“

  教授認(rèn)為,960 萬條“臟話”,這一數(shù)據(jù)還不夠真實(shí)?

  《親愛的數(shù)據(jù)》出品

  無獨(dú)有偶,卡教授在 2020 年 1 月份發(fā)布了一項(xiàng)實(shí)驗(yàn)結(jié)果。她和一位同事收集了 300 多個(gè) Facebook 帖子(樣本),這些帖子明顯違反了規(guī)則,實(shí)驗(yàn)人員用服務(wù)工具進(jìn)行了舉報(bào)。追蹤結(jié)果顯示,最終只有大約一半的帖子被刪除。

  卡教授這一實(shí)驗(yàn)結(jié)果,在挑戰(zhàn) Facebook。同時(shí),她也發(fā)現(xiàn),同樣是“口吐芬芳”,算法對種族歧比在歧視女性方面更為嚴(yán)格。不知道 Facebook 高管桑德拉看后作何感想。

  Facebook 表示,對算法找到(標(biāo)記)的內(nèi)容與用戶報(bào)告的處理相同。流程上確定是直接刪除,還是警告處理。可能流程上要流轉(zhuǎn)到下一環(huán)節(jié),人工審核者。(或者仍由軟件判定,視情況而定。)

  這時(shí)候,要談?wù)勅斯徍藛T工的苦楚了。

  2020 年 5 月,F(xiàn)acebook 公司同意支付 5200 萬美元與內(nèi)容審查團(tuán)隊(duì)的員工達(dá)成和解。原因很驚人,審查帖子導(dǎo)致他們患上了精神創(chuàng)傷,已獲法庭鑒定。外媒 The Verge 之前詳細(xì)報(bào)道了這一消息。?

  消息原文:“Facebook 承認(rèn)內(nèi)容審核會給員工造成巨大的損失,這一次,是具有里程碑意義的承認(rèn)。Facebook 同意向現(xiàn)職和前任審核人員支付 5200 萬美元,以補(bǔ)償他們因工作出現(xiàn)的心理健康問題。

  在美國圣馬特奧高等法院提出的一項(xiàng)初步和解中,F(xiàn)acebook 公司同意支付賠償金,并在他們工作期間給予更多幫(tong)助(qing)。”

  天天看這些臟話的人,都受了內(nèi)傷。當(dāng)然,這得算工傷。

  在“劍橋門”事件后,審核報(bào)告是 Facebook 公司透明度程序的一部分,這一程序還包括聘請一個(gè)新的外部專家小組,該小組有權(quán)推翻該公司的審核決定。講道理,只有董事會才是公司最高權(quán)力機(jī)構(gòu)。

  公司協(xié)調(diào)外部力量參與的力度很大。畢竟罰金有點(diǎn)高,這樣下去,扎克伯格就會比亞馬遜公司的貝佐斯窮多了。

  卡教授繼續(xù)與 Facebook 公司正面硬剛。她表示,F(xiàn)acebook 公司的披露似乎表明該公司可以自我監(jiān)管,但報(bào)告有缺陷。

她說:“要與公司進(jìn)行對話,我們需要數(shù)據(jù)。”

  當(dāng)被問及為何不報(bào)告“臟話”言論泛濫情況時(shí),F(xiàn)acebook 公司發(fā)言人指出,該報(bào)告的衡量標(biāo)準(zhǔn)“正在緩慢擴(kuò)展,以覆蓋更多的語言和地區(qū),以考慮到文化背景和個(gè)別語言的細(xì)微差別” 。

  定義和檢測“臟話”是 Facebook 和其他平臺面臨的最大社會和技術(shù)挑戰(zhàn)之一。

  在全球多元文化背景下,即使是人類分辨內(nèi)容,也是需要花一番功夫的。舉個(gè)例子,有抖音號教青島方言表揚(yáng)人用“赤絲”,請自行體(bai)會(du)一下。

  自動化是很棘手的,因?yàn)槿斯ぶ悄芫嚯x人類對文本的理解還有很長的路要走,理解文本和圖像共同傳達(dá)的微妙含義的算法的研究才剛剛開始。

  Schroepfer 說道:“機(jī)器學(xué)習(xí)算法在語言學(xué)研究的幫助下,F(xiàn)acebook 已經(jīng)升級了檢測算法。許多高科技公司正在對其處理語言的軟件系統(tǒng)(例如谷歌的搜索引擎)進(jìn)行改造,提高用算法解決諸如回答問題或澄清歧義等語言問題的能力。”

他強(qiáng)調(diào):“(這是)重大改進(jìn)。”

  Schroepfer 還明確指出,這些改進(jìn)并不能使技術(shù)達(dá)到完美。?

  《透明度報(bào)告》透露出,在內(nèi)容審查和審核方面,F(xiàn)acebook 重兵布防人工智能。臟話會影響社交網(wǎng)絡(luò)的根基,人工智能再昂貴也要用起來。

  Facebook 表示,它已經(jīng)創(chuàng)建了超過 10000 個(gè)仇恨語音模因(模因是許多人在互聯(lián)網(wǎng)上相互發(fā)送的東西,如視頻,圖片或短語)的集合,這些模因結(jié)合了圖像和文本,并激發(fā)新的研究。該公司將向研究小組提供 10 萬美元的獎(jiǎng)金,激勵(lì)這些研究小組開發(fā)出能夠最好地發(fā)現(xiàn)可惡的模因與良性內(nèi)容相混合的開源軟件。

  美國還在對社交媒體內(nèi)容中的“臟話”監(jiān)管采取放任不管的態(tài)度。

  德國 2017 年通過了《網(wǎng)絡(luò)執(zhí)法法》(NetzDG),該法要求擁有或超過 200 萬用戶的社交媒體公司必須刪除或阻止訪問報(bào)告的內(nèi)容,因其違反了德國刑法對仇恨言論的限制(《網(wǎng)絡(luò)實(shí)施法》,2017)。

  公司必須在收到通知后的 24 小時(shí)內(nèi)刪除“明顯的仇恨言論”,否則將面臨 5000 萬美元的罰款(Oltermann,2018 年)。

  值得一提的是,在 2019 年恐怖主義襲擊了新西蘭的兩座清真寺之后,全球領(lǐng)導(dǎo)人與臉書、谷歌、推特等其他公??司高管會面,共同制定了一套名為《基督城召喚》(Christchurch Call)的全球反恐準(zhǔn)則,制定針對極端、暴力,以及仇視性言論。

  更值得一提的是,美國沒有簽署承諾。

  《親愛的數(shù)據(jù)》出品  ?

  遠(yuǎn)在海外的抖音國際版(Tiktok)也發(fā)布了《透明度報(bào)告》(2019 年 12 月),只有五頁紙。

  別問為什么,被逼的。

  互聯(lián)網(wǎng)公司有無可比擬的力量來塑造人類話語世界,偏激言論遍地開花,其處理和刪除情況卻鮮為人知。《透明度報(bào)告》也適用于新浪微博等國內(nèi)互聯(lián)網(wǎng)平臺公司。敢問一句,現(xiàn)在是什么樣的世道?先進(jìn)技術(shù)和生產(chǎn)力都用來和“臟話”做斗爭了。

總結(jié)

以上是生活随笔為你收集整理的2020第一季度,Facebook公司删掉了960万句“脏话”的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。