×
支持199IT發展可加入知識交流群(10K+用戶),最有價值數據分享!
點擊即可加入!
關閉
title_temp-食色软件app下载

為什么極端內容更容易流行?

食色APP全球范圍內新冠肺炎的形勢撲朔迷離。除了日益增長的確診人數令人壓抑之外,更讓人擔憂的是國外社交媒體上不斷冒出“反隔離運動”、“病毒是騙局”、“口罩是壓迫”等極端言論。反疫苗分子也趁機出來活動,散布各種陰謀論。部分美國民眾甚至愿意相信,口罩上的鼻梁條是5G天線,用于控制思想、傳遞訊息,或能夠使人罹患腦癌。類似的極端內容在社交網絡上獲得了大量的關注和轉發,每次瀏覽都會讓人感到迷惑:

食色APP這些熱衷于傳播極端言論的用戶,到底是在反諷,還是真的相信自己轉發的內容?

個體天生喜歡極端觀點

食色APP其實并不僅僅是疫情爆發期,對極端觀點的追逐是社交媒體的長期趨勢。

食色APP牛津大學 Seth Flaxman 教授于2018年發布了一篇研究,他的團隊分析了5萬名美國互聯網用戶的瀏覽歷史,得出了一個結論,社交媒體及搜索引擎用戶傾向于使用比較極端的新聞來源——譬如布萊巴特新聞網(美國極端保守主義媒體)而非偏中立的福克斯新聞——毋庸置疑,這樣的閱讀習慣會影響到整體內容的導向。

社會心理學領域有個理論叫做動機性推理食色APP,指的是人非常依賴自己固有的認知,往往會投入大量認知資源來駁斥異己之見,從而更加堅定自己的想法。事實上,大多數互聯網用戶對與自己不同的觀點的接受度都是非常有限的。這一點和用戶的年齡、學歷沒有關系,不論受過高等教育的人,還是泛娛樂化的低齡用戶,都難免陷入其中。

食色APP不管是網絡還是現實語境,用戶都是為了尋求共鳴而非異見,而網絡恰好可以幫助人們更容易找到想法類似的同類,并通過話題、“贊轉評”等方式為用戶提供了抱團的機會。當某個公共事件發生后,群體中少數用戶之間觀點碰撞產生共鳴,進而發酵形成煽動性的氛圍,產生輿論主場,并將群體的情緒向極端方向引導;在面對這種通過群體傳染不斷放大并迅速擴展的行為或言論時,多數個體的判斷能力和自控能力都會大大降低,怕孤立、易跟風,極易失去理智——這正是群體極化理論的典型路徑。

圖片來源unsplash

古斯塔夫·勒龐的《烏合之眾》中有個很經典的觀點:“群體不善推理,卻急于采取行動”。社交網絡剛好滿足了群體、時限性強、行動門檻低等條件,因此為極端觀點的傳播提供了極大的方便:借助熱點事件,創造一些激進的口號標簽等符號建構,增強受眾的認同感,很容易就能在社交網絡上快速傳播開。社交網絡的用戶不在意自己所獲取和傳播的信息是不是真相,而更在意自身的情感情緒是否在事件中獲得代入感。

而用戶偏好極端內容帶來的惡性循環是,有些原本溫和中立的KOL,在網上持續輸出內容一段時間后,其觀點也逐漸變得極端。這不難理解,內容生產者很容易從讀者的反饋中總結出規律,充滿攻擊性的極端內容是獲取關注度的一條捷徑,他們自然樂于以此來討好自己的讀者,由此產生極端內容傳播的惡性循環。

管治與流量的二律背反

對于一些社區來說,極端內容意味著爭議,即可以帶來多方人群的重重討論,且不論理是否能越辯越明,流量肯定是越辯越多,因此一些產品對于極端內容的態度也是曖昧的。

以Facebook為例,極端內容的盛行之下,其推薦算法可能是誘因之一。社會學家兼Facebook研究員Monica Lee研究發現,近2/3加入極端主義小組的用戶都是被Facebook推薦吸引而非主動檢索。算法分析用戶在平臺上每一個行為,繼而推薦更多可能喜歡的內容,興趣轉化為點擊,點擊轉化為參與和活躍度,最終達成商業變現。

圖片來源unsplash

食色APP視頻網站YouTube上曾經發生一起大V約架事件:一位擁有400萬粉絲的視頻博主、喜劇演員Steven Crowder在上傳的視頻中對科技媒體Vox的評論員Carlos Maza的種族和性取向出言不遜,并任由其粉絲在Maza的評論區發表了大量極端的侮辱性言論。Maza向平臺反映了無數次都沒有得到很好的解決,無奈發布了一條視頻控訴YouTube的內容審查和網絡暴力管理松散。迫于Maza的影響力,Youtube方面終于做出了處理——但也僅僅是Crowder的違規視頻不再享受廣告分成而已。某種程度上,這兩個例子正印證了極端內容與流量的沖突性,相比普通內容,前者更能激活討論,進而增加流量,也難免一些社區對極端內容態度曖昧。

極端內容的流行可以追溯自互聯網誕生之初對自由平等的追求,社交網絡的崛起源自于人們相互交流與信息獲取方面的需求。任何社區成立之初,都希望建立一個中立、平和的交流之地。

食色APPFacebook和Twitter也都試圖在允許用戶發聲和內容監管之間達到一種平衡,即使在法律要求下不得不刪除一些不恰當內容,他們也盡量表現得寬容,原因是他們不想得罪用戶。

約翰·霍普金斯大學的Steven Salzberg教授曾撰文對反疫苗分子進行了嚴肅的批判。這些極端分子到處創建新的論壇、Facebook小組拉攏成員,甚至還拍攝了紀錄片來散布有關疫苗的錯誤信息,不斷宣傳疫苗會導致自閉癥等說法。其內容缺乏科學依據,卻憑借煽動性的描述和焦慮渲染對新手父母造成了誤導。

Steven Salzberg教授將其行為與邪教進行了類比,指出了反疫苗分子與邪教類似的四個特征:

1. 組織成員具有外人無法理解的特殊見識;

食色APP2. 該組織及其領導人是了解「真相」的唯一途徑;

食色APP3. 對外部世界不合理的恐懼,例如即將發生的災難,邪惡的陰謀和迫害;

4. 預算或支出沒有相應財務披露。

顯然,這些類似邪教組織的言論早已超出了言論自由的范疇,并且到了影響公共安全的地步。

技術:多管齊下,聊勝于無

極端內容的流行已經引起了監管部門的注意,尤其社交網絡擁有大量的青少年用戶,其價值觀形成難免受到這些極端內容影響,并演變成違法犯罪等極端行為。因此,世界各國政府也在改進監管措施,以期對惡性事件防范于未然。

除了政府部門的監管、法律法規的健全之外,全世界不甘心受極端內容污染的互聯網用戶也都在努力。

有開發者意識到這個問題,開發了插件來標注極端內容:Affective Network團隊的開發者先是與Twitter用戶進行了一項實驗,旨在幫助他們更好地消化在網絡上看到的新聞內容。隨后根據實驗內容,推出了Google瀏覽器插件Affective Network(Aff-Net),它可以使Twitter用戶對內容進行過濾和彩色標記,使互聯網上的內容更加明確,以避免情緒、情感等心理健康受到互聯網上的內容影響。

平臺方也在做出一些努力,通過算法來控制極端內容的流行。

食色APPFacebook自2016年以來為對抗“極端化”采取了一系列措施,包括改變內容推送算法,使其包含更多來自朋友和家人的帖子;通過機器學習系統,更快地檢測仇恨言論和其他惡意內容;從算法推薦中刪除違反Facebook政策的群組;組建內容審查隊伍,在全世界范圍內雇傭了三萬人來承擔網站安全工作。其負責人稱:

“我們已經采取了許多措施來減少可能在我們的平臺上導致極端化的內容數量,有時是以犧牲利潤為代價的。這項工作永遠不會結束,因為歸根結底,網絡話語是社會的延伸,而網絡話語又是高度極端化的。但我們的工作是減少極端化對我們產品體驗的影響,我們正致力于做到這一點。

食色APPTwitter首席執行官Jack Dorsey也曾公開表態,任何人都不應成為網上謾罵的目標,Twitter不會為這種行為提供土壤。

YouTube在刪除不良內容方面也頗有經驗——在2018年7月到9月之間,共有780萬條視頻被刪除,80%都是被網站功能自動屏蔽的,且其中四分之三的內容沒有被瀏覽過。目前,YouTube的審核團隊多達一萬人,負責刪除違規視頻和進一步改善各種機制和政策。

圖片來源unsplash

但是,面對海量盛行的極端內容,這些措施的真實作用如何,確實很難評估,至少我們作為用戶直觀感受上并不明顯。扎克伯格在去年三月份一份公開信中寫到:“通過更新互聯網監管規則,我們可以保留其最好的一面:人們表達的自由、企業家創造的自由,同時保護社會免受更多危害。”這或許從側面印證了技術手段帶來的成果可能收效甚微。

我們無法左右他人,但可以做好自己

對于普通用戶來說,身處信息大爆炸時代,每天都能看到各類極端事件及言論,難免會產生興奮、焦慮、懷疑等情緒。有些專家呼吁由學校或社區組織開展媒體素養教育,向學生和公眾傳遞基本的批判思維和爭論中辨別偏見的方法,以更理智地評估消息來源。

個體畢竟精力有限,沒有能力與極端內容作斗爭,只能盡量遠離群體暴力的影響,并做好情緒管理,做到獨善其身。尤其要注意的是未成年孩子的家長。未成年人使用社交網絡本身就面臨著沉迷、信息焦慮等風險,倘若受到極端內容的影響,很容易墜入網絡欺凌或被欺凌的深淵,因此家長需要對自己的孩子做好引導,教導孩子警惕極端內容的陷阱,客觀認識世界,克制獵奇心理,避免落入群體狂歡的圈套。

互聯網上,每個人都肩負著信息接受者和傳播者的雙重身份,都是傳播鏈條上不可或缺的一環,我們可以做出自己的選擇,關注哪些內容,發布哪些內容,都是一念之間的選擇——盡可能去忽略極端信息,而不是為其推波助瀾。當個體每一個行為都謹慎一分,就可以更大程度地減少對整個網絡造成的污染。
作者:二因斯坦?TRI輕作者

來自:??

感謝支持199IT
我們致力為中國互聯網研究和咨詢及IT行業數據專業人員和決策者提供一個數據共享平臺。

要繼續訪問我們的網站,只需關閉您的廣告攔截器并刷新頁面。
滾動到頂部