close
Facebook迷之刪帖標準:黑人可以罵,白人就是不行......
【獵雲網】7月3日報道(編譯:蔡妙嫻)
上個月,倫敦恐怖襲擊發生後,一名美國國會議員在Facebook發帖,指責這次屠殺是“激進的穆斯林”的行動。“找到他們,證明身份,殺掉他們。”美國國會代表,路易斯安那州共和黨人Clay Higgins寫道,“把他們都殺瞭,為瞭所有善良、正直的人,把他們殺光。”
盡管Facebook一向號稱會鏟除所有攻擊性言論,但Higgins的帖子並未得到任何處理。
5月,波士頓詩人,“黑人生命同等重要”活動傢Didi Delgado的帖子卻遭到瞭不同對待。他寫道:所有白人都是種族歧視者。不久,這則帖子被刪除,Delgado的Facebook賬戶也被禁用7天。
日前,新聞網站ProPublica曝光一系列文件,關於Facebook是如何區分仇恨語言和合法政治思想的。這些文件讓我們看到,在看似區別對待的行為背後,實際上是有理可循的。比方說,Higgins的言論之所以能夠通過審查,是因為它隻針對穆斯林的特定群體——也就是“激進的”,而Delgado的帖子則在普遍意義上攻擊瞭白人。
過去10年以來,Facebook設立瞭數百條規定,對何為“恰當”,何為“不恰當”做瞭極為細致的區分,希望平臺能夠成為20億用戶感覺安全的地方。近幾個月,隨著“假新聞”數量膨脹,Facebook的審查問題被推到臺前,人們越來越擔心,恐怖分子會使用這一社交媒體來招募新人。
盡管在2011年“阿拉伯之春”時期,Facebook因為幫助推翻獨裁統治而受到贊譽,但文件顯示,該公司至少不止一次地在仇恨語言問題上,偏護精英人群和政府,打擊草根活動傢和少數民族。這種做法實際上是為Facebook本身的利益服務的,因為其平臺需要各國政府的批準,才能為該國用戶所使用。
文件中提到這樣一條規定:(雖然該公司稱這條規定已經被廢除)禁止發佈贊美“以暴力行為抵制國際公認的國傢領土”的帖子。該公司的人工審查員——也就是內容審查員,已經刪除瞭激進分子和記者討論巴勒斯坦、克什米爾、克裡米亞和西撒哈拉地區問題的帖子。
另一份文件顯示,該公司會對內容審查員進行培訓,教她們如何將審查原則運用在仇恨語言算法中。這份文件提出瞭一個問題:女性司機、黑人兒童和白人男子,哪一個群體需要仇恨語言保護?正確答案是:白人男子。
雖然Facebook刪除瞭不少詛咒、詆毀、暴力等語言攻擊帖子,但所針對的都是“保護群體”,其參考因素包括種族、性別、性別認同、宗教信仰、民族血統、種族劃分、性取向以及是否疾病或殘疾等。
用戶上傳與上述群體有關的“子集”時,Facebook的容忍范圍更大一些。白人男子的兩個屬性均為保護群體,而男性司機和黑人兒童則有一個屬性不屬於保護群體。
Facebook的規定在這些看似模糊的區別背後,有著更為廣闊的哲學思維。和美國法律不同,前者在面對少數民族和女性時,出於多樣性和解決歧視問題的考慮,會帶有部分傾向性。但Facebook的算法旨在保護所有種族,追求性別平等。
馬裡蘭大學法律教授兼信息隱私專傢Danielle Citron表示,“遺憾的是,這些規定沒有考慮到有色人種,而這與我們最初設立平等保護的精神不相符合。”Citron補充說,這種方法會“保護最不需要保護的人,忽視最需要保護的人”。
但Facebook表示,他們的目標並非如此,他們希望能夠創建一套全世界通用的標準。“政策並不總是能夠帶來完美的結果,”Facebook全球政策管理主管Monika Bicket說,“這就是我們在為全球社區制定政策的時候,所遭遇的現實問題。人們來自不同背景,對何為恰當內容,也有自己不同的理解。”
Facebook的規則為自己創造瞭一個法律世界,這個世界與美國第一修正案保護自由言論的條文形成瞭鮮明對比。第一修正案保護的,正是該公司算法所不容許的仇恨語言。
很久之前,Facebook就已經開發相關程序,將冒犯性內容——如兒童色情等圖片和評論從平臺刪除。近期《衛報》的刊文也讓我們看到,這傢社交巨頭在面對暴力、虐童、復仇色情和自殘內容時,也常常因為是否應當刪除而頭疼不已。
不過,與政治言論相比,上述問題還都是毛毛雨。外媒獲取的文件顯示,特朗普索發佈的穆斯林禁令就違反瞭該公司政策。去年《華爾街日報》報道,Facebook創始人兼CEO紮克伯格曾親自下令,特朗普可以不受公司政策的限制。
近期,在一則謀殺視頻引起輿論攻擊後,Facebook的內容審核人員大軍極速擴張,從之前的4500人增加到7500人,可以說是歷史上最大規模的全球審查系統。
用戶的帖子如果被刪除,往往不知道是違反瞭哪項規定,也無法進行上訴。隻有在主頁、群組或頁面被刪除的時候,用戶才可以提出上訴。
Bickert透露,公司已經開始嘗試增加上訴程序,被刪掉一條帖子的個人用戶將來也可以提出上訴。“我承認,我們並非永遠完美。”
美國法律並沒有要求Facebook一定要審查內容。1996年,聯邦法律宣佈,大多數科技公司——包括Facebook,即便用戶上傳不當內容,也擁有豁免權。
這條法律的出臺,省去瞭在線論壇等審核每條內容的麻煩,這一點讓它們與新聞媒體區分開來。但早期科技公司很快認識到,他們仍然需要監管聊天內容,以防出現欺凌、虐待內容,給用戶帶來反面影響。
美國在線過去說服數千名志願者來監管聊天內容,從而免費獲得他們的服務。但隨著全世界開始接入互聯網,監管工作日益麻煩,科技公司開始招聘專門的審查人員。內容審查崗位就此誕生。
內容審查緣何成為“必需品”?2004年,律師Nicole Wong加入谷歌,力勸公司組建第一批審查團隊,負責處理投訴,然後匯報給法律團隊。Wong說,谷歌需要“一套合理的政策和一支高效的團隊,專門處理這類要求”,從而更好地管理其在線論壇Groups。
2006年,谷歌收購YouTube,不久他們就發現內容審查需求更加後級換電容迫切瞭。“因為視頻是視覺的,所有人都能看得懂。”
雖然谷歌希望打造一個寬容的平臺,但很快他們發現自己身處各種各樣的爭議中。比方說,當時出現瞭一則嘲弄泰國國王的視頻,Wong前去泰國拜訪,被該國民眾對國王的尊敬所震驚,最後雖然不情不願,但還是屏蔽瞭那則視頻,當然條件是隻針對泰國用戶。
自那之後,根據地理位置選擇性地屏蔽視頻——也就是“地域屏蔽”成瞭許多政府的日常要求。“我不喜歡地理屏蔽,”Wong說,“但是隻有這樣做,才能讓谷歌在不同國傢得以運營。”
對於Facebook這樣的社交網絡公司來說,地域屏蔽還要麻煩一些,因為用戶的帖子經常被跨國分享。如果Facebook地域屏蔽瞭一位用戶的帖子,那麼該帖隻會出現在不受地域屏蔽限制的同一個國傢內,這就給跨國交流帶來瞭障礙。
最後Facebook決定,盡可能少使用地域屏蔽。
Bikert說,Facebook會將每個國傢的法律考慮在內,不是對所有政府要求言聽計從。“如果某個內容違反瞭國傢法律,但未違反我們的政策,我們會問:這是合法的政府部門的要求嗎?然後我們會檢查內容是否真的違反瞭法律。有時候,我們會選擇在該國屏蔽相關內容。”
Facebook的目標是創造全球通用的規則。
Facebook因內容而崛起Facebook成立於2004年,在面臨著MySpace的強力競爭下,該公司開始通過內容審核來增強自身優勢。MySpace號稱社交網絡世界的夜店,常被指責是色狼的聚集地。
和它相比,Facebook好比社交網絡的常春藤,他們要求用戶填寫真實姓名和信息。2005年加入Facebook的Chris Kelly是公司的第一位總顧問,他說,他不希望Facebook像MySpace一樣,被執法部門挑刺。“我們采取各種辦法,告訴用戶我們是一個無裸露內容的平臺。”
與此同時,該公司也開始解決仇恨語言問題,首先制定的就是,不允許出現否認猶太大屠殺的內容。
“在這種問題上我是非常堅決的。”Kelly說,他已於2010年離開Facebook,“即便你把第一修正案搬出來,我們也要承認言論自由是有限制的。”
2008年,Facebook開始向全球擴張。不過,當時該公司的審查手冊還隻是一張紙,上面寫著不允許出現的內容,包括裸體圖片和希特勒照片等。同年加入Facebook的Dave Willer說,“那張紙的最底下有一行字:刪除任何讓你覺得不舒服的內容。”Willer每天要審查15000張圖片,他很快發現審查手冊不夠嚴格。於是,他和幾位同事秉承審查精神,為這些規則打下瞭堅實的底子,同時也做出瞭調整。
Willer很快被提拔為內容政策團隊主管,2013年離開Facebook時,他已經制定出瞭一份15000字的審查手冊,這份手冊也成為如今Facebook內容標準的基礎。
Willer當時的上司Jud Hoffman表示,這些規則的制定,為的是實現Facebook“連通世界,促進開放”的目標。
此外,Facebook的審查手冊還基於19世紀英國政治哲學傢John Stuart Mill的一句話:權力在違反他人意志的情況下運用是否合理,關鍵看它是否為防止這個人傷害他人。Facebook據此制定瞭“可信威脅”規定,禁止發佈任何包含具體威脅的內容,但不包括那些不太可能得到執行的威脅。
但漸漸的,Hoffman說,“我們發現將被禁內容限制在不對人造成身體傷害上還不夠,於是我們開始觀察自由表達社會對這個問題的處理。”
Facebook的審查手冊事無巨細,甚至還有一條專門針對火遍全球的Pepe青蛙,因為這隻青蛙常常被持有白人至上論的另類右翼用在種族歧視內容中。
規定是一回事,如何實施這些規定又是另一回事。Bickert表示,Facebook每周都會進行審計,確保每一位內容審核人員都在遵循規定做事。但批評傢指出,內容審核人員往往幾秒鐘之內就要決定一則帖子是否恰當,這不可避免會帶來解讀偏差等問題。
很多時候,用戶並沒有種族歧視或指責殺害少數種族的警察的意思,他們的帖子卻被刪除瞭。兩年前,新聞學教授Stacey Patton發瞭一則帖子,質疑為什麼“白人義務警員殺害無武裝的黑人不算犯罪,黑人殺黑人卻被叫做‘動物’或‘罪犯’。”
盡管這後級擴大機用途句話並沒有違反Facebook的仇恨言論政策,但Patton的帖子還是很快被刪除瞭,她的賬號也被封禁瞭3天,Facebook並沒有告訴她原因。“我的帖子每月都會被刪一次。”Patton說。她說,自己經常被關進Facebook“監獄”,什麼帖子違反瞭規定,她的賬號就會被封禁一段時間。
“這是一種情感暴力,”Patton說,“尤其是對於一個黑人來說,我們經常會討論大隔離的問題,然後出現瞭一個你可以表達自己的思想的平臺。誰成想,一發某個匿名人士不喜歡的言論,他們就讓你‘吃牢飯’去。”
發帖子說“白人都是種族歧視者”的Didi Delgado,因為賬號經常被封,她甚至在另一款應用Patreon上註冊瞭賬號,專門發被Facebook刪除的內容。來自密歇根州的Leslie Mac寫瞭一篇文章:《白人們,當公共場合出現種族歧視時,你的沉默就是暴力》。
這篇文章並未違反Facebook的規定,但Mac卻遭到瞭處罰。在媒體曝光此事後,該公司向Mac道瞭歉,並恢復瞭她的賬號。自那之後,Mac發瞭許多言語直白的帖子,“我再沒有收到Facebook的任何騷擾,”Mac說,“但我的黑人女性朋友,但凡寫過有關種汽車音響電容推薦族或社會公平內容的,都被封過號。”
和大多數朋友一樣,Mac也有一個小號,以防大號再一次被封禁。“對於這整件事,我的總結是:如果你有些知名度,他們會立刻把局面挽起來。”
【獵雲網】7月3日報道(編譯:蔡妙嫻)
上個月,倫敦恐怖襲擊發生後,一名美國國會議員在Facebook發帖,指責這次屠殺是“激進的穆斯林”的行動。“找到他們,證明身份,殺掉他們。”美國國會代表,路易斯安那州共和黨人Clay Higgins寫道,“把他們都殺瞭,為瞭所有善良、正直的人,把他們殺光。”
盡管Facebook一向號稱會鏟除所有攻擊性言論,但Higgins的帖子並未得到任何處理。
5月,波士頓詩人,“黑人生命同等重要”活動傢Didi Delgado的帖子卻遭到瞭不同對待。他寫道:所有白人都是種族歧視者。不久,這則帖子被刪除,Delgado的Facebook賬戶也被禁用7天。
日前,新聞網站ProPublica曝光一系列文件,關於Facebook是如何區分仇恨語言和合法政治思想的。這些文件讓我們看到,在看似區別對待的行為背後,實際上是有理可循的。比方說,Higgins的言論之所以能夠通過審查,是因為它隻針對穆斯林的特定群體——也就是“激進的”,而Delgado的帖子則在普遍意義上攻擊瞭白人。
過去10年以來,Facebook設立瞭數百條規定,對何為“恰當”,何為“不恰當”做瞭極為細致的區分,希望平臺能夠成為20億用戶感覺安全的地方。近幾個月,隨著“假新聞”數量膨脹,Facebook的審查問題被推到臺前,人們越來越擔心,恐怖分子會使用這一社交媒體來招募新人。
盡管在2011年“阿拉伯之春”時期,Facebook因為幫助推翻獨裁統治而受到贊譽,但文件顯示,該公司至少不止一次地在仇恨語言問題上,偏護精英人群和政府,打擊草根活動傢和少數民族。這種做法實際上是為Facebook本身的利益服務的,因為其平臺需要各國政府的批準,才能為該國用戶所使用。
文件中提到這樣一條規定:(雖然該公司稱這條規定已經被廢除)禁止發佈贊美“以暴力行為抵制國際公認的國傢領土”的帖子。該公司的人工審查員——也就是內容審查員,已經刪除瞭激進分子和記者討論巴勒斯坦、克什米爾、克裡米亞和西撒哈拉地區問題的帖子。
另一份文件顯示,該公司會對內容審查員進行培訓,教她們如何將審查原則運用在仇恨語言算法中。這份文件提出瞭一個問題:女性司機、黑人兒童和白人男子,哪一個群體需要仇恨語言保護?正確答案是:白人男子。
雖然Facebook刪除瞭不少詛咒、詆毀、暴力等語言攻擊帖子,但所針對的都是“保護群體”,其參考因素包括種族、性別、性別認同、宗教信仰、民族血統、種族劃分、性取向以及是否疾病或殘疾等。
用戶上傳與上述群體有關的“子集”時,Facebook的容忍范圍更大一些。白人男子的兩個屬性均為保護群體,而男性司機和黑人兒童則有一個屬性不屬於保護群體。
Facebook的規定在這些看似模糊的區別背後,有著更為廣闊的哲學思維。和美國法律不同,前者在面對少數民族和女性時,出於多樣性和解決歧視問題的考慮,會帶有部分傾向性。但Facebook的算法旨在保護所有種族,追求性別平等。
馬裡蘭大學法律教授兼信息隱私專傢Danielle Citron表示,“遺憾的是,這些規定沒有考慮到有色人種,而這與我們最初設立平等保護的精神不相符合。”Citron補充說,這種方法會“保護最不需要保護的人,忽視最需要保護的人”。
但Facebook表示,他們的目標並非如此,他們希望能夠創建一套全世界通用的標準。“政策並不總是能夠帶來完美的結果,”Facebook全球政策管理主管Monika Bicket說,“這就是我們在為全球社區制定政策的時候,所遭遇的現實問題。人們來自不同背景,對何為恰當內容,也有自己不同的理解。”
Facebook的規則為自己創造瞭一個法律世界,這個世界與美國第一修正案保護自由言論的條文形成瞭鮮明對比。第一修正案保護的,正是該公司算法所不容許的仇恨語言。
很久之前,Facebook就已經開發相關程序,將冒犯性內容——如兒童色情等圖片和評論從平臺刪除。近期《衛報》的刊文也讓我們看到,這傢社交巨頭在面對暴力、虐童、復仇色情和自殘內容時,也常常因為是否應當刪除而頭疼不已。
不過,與政治言論相比,上述問題還都是毛毛雨。外媒獲取的文件顯示,特朗普索發佈的穆斯林禁令就違反瞭該公司政策。去年《華爾街日報》報道,Facebook創始人兼CEO紮克伯格曾親自下令,特朗普可以不受公司政策的限制。
近期,在一則謀殺視頻引起輿論攻擊後,Facebook的內容審核人員大軍極速擴張,從之前的4500人增加到7500人,可以說是歷史上最大規模的全球審查系統。
用戶的帖子如果被刪除,往往不知道是違反瞭哪項規定,也無法進行上訴。隻有在主頁、群組或頁面被刪除的時候,用戶才可以提出上訴。
Bickert透露,公司已經開始嘗試增加上訴程序,被刪掉一條帖子的個人用戶將來也可以提出上訴。“我承認,我們並非永遠完美。”
美國法律並沒有要求Facebook一定要審查內容。1996年,聯邦法律宣佈,大多數科技公司——包括Facebook,即便用戶上傳不當內容,也擁有豁免權。
這條法律的出臺,省去瞭在線論壇等審核每條內容的麻煩,這一點讓它們與新聞媒體區分開來。但早期科技公司很快認識到,他們仍然需要監管聊天內容,以防出現欺凌、虐待內容,給用戶帶來反面影響。
美國在線過去說服數千名志願者來監管聊天內容,從而免費獲得他們的服務。但隨著全世界開始接入互聯網,監管工作日益麻煩,科技公司開始招聘專門的審查人員。內容審查崗位就此誕生。
內容審查緣何成為“必需品”?2004年,律師Nicole Wong加入谷歌,力勸公司組建第一批審查團隊,負責處理投訴,然後匯報給法律團隊。Wong說,谷歌需要“一套合理的政策和一支高效的團隊,專門處理這類要求”,從而更好地管理其在線論壇Groups。
2006年,谷歌收購YouTube,不久他們就發現內容審查需求更加後級換電容迫切瞭。“因為視頻是視覺的,所有人都能看得懂。”
雖然谷歌希望打造一個寬容的平臺,但很快他們發現自己身處各種各樣的爭議中。比方說,當時出現瞭一則嘲弄泰國國王的視頻,Wong前去泰國拜訪,被該國民眾對國王的尊敬所震驚,最後雖然不情不願,但還是屏蔽瞭那則視頻,當然條件是隻針對泰國用戶。
自那之後,根據地理位置選擇性地屏蔽視頻——也就是“地域屏蔽”成瞭許多政府的日常要求。“我不喜歡地理屏蔽,”Wong說,“但是隻有這樣做,才能讓谷歌在不同國傢得以運營。”
對於Facebook這樣的社交網絡公司來說,地域屏蔽還要麻煩一些,因為用戶的帖子經常被跨國分享。如果Facebook地域屏蔽瞭一位用戶的帖子,那麼該帖隻會出現在不受地域屏蔽限制的同一個國傢內,這就給跨國交流帶來瞭障礙。
最後Facebook決定,盡可能少使用地域屏蔽。
Bikert說,Facebook會將每個國傢的法律考慮在內,不是對所有政府要求言聽計從。“如果某個內容違反瞭國傢法律,但未違反我們的政策,我們會問:這是合法的政府部門的要求嗎?然後我們會檢查內容是否真的違反瞭法律。有時候,我們會選擇在該國屏蔽相關內容。”
Facebook的目標是創造全球通用的規則。
Facebook因內容而崛起Facebook成立於2004年,在面臨著MySpace的強力競爭下,該公司開始通過內容審核來增強自身優勢。MySpace號稱社交網絡世界的夜店,常被指責是色狼的聚集地。
和它相比,Facebook好比社交網絡的常春藤,他們要求用戶填寫真實姓名和信息。2005年加入Facebook的Chris Kelly是公司的第一位總顧問,他說,他不希望Facebook像MySpace一樣,被執法部門挑刺。“我們采取各種辦法,告訴用戶我們是一個無裸露內容的平臺。”
與此同時,該公司也開始解決仇恨語言問題,首先制定的就是,不允許出現否認猶太大屠殺的內容。
“在這種問題上我是非常堅決的。”Kelly說,他已於2010年離開Facebook,“即便你把第一修正案搬出來,我們也要承認言論自由是有限制的。”
2008年,Facebook開始向全球擴張。不過,當時該公司的審查手冊還隻是一張紙,上面寫著不允許出現的內容,包括裸體圖片和希特勒照片等。同年加入Facebook的Dave Willer說,“那張紙的最底下有一行字:刪除任何讓你覺得不舒服的內容。”Willer每天要審查15000張圖片,他很快發現審查手冊不夠嚴格。於是,他和幾位同事秉承審查精神,為這些規則打下瞭堅實的底子,同時也做出瞭調整。
Willer很快被提拔為內容政策團隊主管,2013年離開Facebook時,他已經制定出瞭一份15000字的審查手冊,這份手冊也成為如今Facebook內容標準的基礎。
Willer當時的上司Jud Hoffman表示,這些規則的制定,為的是實現Facebook“連通世界,促進開放”的目標。
此外,Facebook的審查手冊還基於19世紀英國政治哲學傢John Stuart Mill的一句話:權力在違反他人意志的情況下運用是否合理,關鍵看它是否為防止這個人傷害他人。Facebook據此制定瞭“可信威脅”規定,禁止發佈任何包含具體威脅的內容,但不包括那些不太可能得到執行的威脅。
但漸漸的,Hoffman說,“我們發現將被禁內容限制在不對人造成身體傷害上還不夠,於是我們開始觀察自由表達社會對這個問題的處理。”
Facebook的審查手冊事無巨細,甚至還有一條專門針對火遍全球的Pepe青蛙,因為這隻青蛙常常被持有白人至上論的另類右翼用在種族歧視內容中。
規定是一回事,如何實施這些規定又是另一回事。Bickert表示,Facebook每周都會進行審計,確保每一位內容審核人員都在遵循規定做事。但批評傢指出,內容審核人員往往幾秒鐘之內就要決定一則帖子是否恰當,這不可避免會帶來解讀偏差等問題。
很多時候,用戶並沒有種族歧視或指責殺害少數種族的警察的意思,他們的帖子卻被刪除瞭。兩年前,新聞學教授Stacey Patton發瞭一則帖子,質疑為什麼“白人義務警員殺害無武裝的黑人不算犯罪,黑人殺黑人卻被叫做‘動物’或‘罪犯’。”
盡管這後級擴大機用途句話並沒有違反Facebook的仇恨言論政策,但Patton的帖子還是很快被刪除瞭,她的賬號也被封禁瞭3天,Facebook並沒有告訴她原因。“我的帖子每月都會被刪一次。”Patton說。她說,自己經常被關進Facebook“監獄”,什麼帖子違反瞭規定,她的賬號就會被封禁一段時間。
“這是一種情感暴力,”Patton說,“尤其是對於一個黑人來說,我們經常會討論大隔離的問題,然後出現瞭一個你可以表達自己的思想的平臺。誰成想,一發某個匿名人士不喜歡的言論,他們就讓你‘吃牢飯’去。”
發帖子說“白人都是種族歧視者”的Didi Delgado,因為賬號經常被封,她甚至在另一款應用Patreon上註冊瞭賬號,專門發被Facebook刪除的內容。來自密歇根州的Leslie Mac寫瞭一篇文章:《白人們,當公共場合出現種族歧視時,你的沉默就是暴力》。
這篇文章並未違反Facebook的規定,但Mac卻遭到瞭處罰。在媒體曝光此事後,該公司向Mac道瞭歉,並恢復瞭她的賬號。自那之後,Mac發瞭許多言語直白的帖子,“我再沒有收到Facebook的任何騷擾,”Mac說,“但我的黑人女性朋友,但凡寫過有關種汽車音響電容推薦族或社會公平內容的,都被封過號。”
和大多數朋友一樣,Mac也有一個小號,以防大號再一次被封禁。“對於這整件事,我的總結是:如果你有些知名度,他們會立刻把局面挽起來。”
AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋
AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots
全站熱搜
留言列表