新聞 > 科教 > 正文

男性和女性的評論區竟不一樣 算法連這也不放過了?

前兩天,一個老生常談的話題引爆了互聯網,連續兩天上了微博熱搜。它叫「信息繭房」。

不少人之前就聽過這詞,也了解過它,但這次大家反應這麼大,是因為這是他們第一次,如此直觀地面對信息繭房。

事情是這樣的。

有網友發現,在一個內容關於情侶吵架的視頻下方,不同賬號看到的評論區是不一樣的。

他的賬號看到的評論區,靠前的評論都出自於男性網友,立場也都是從男性出發;女朋友賬號看到的評論區,則恰恰相反。

左男右女▼

在這條微博下面,有很多網友質疑,這無形中會不會影響我們判斷。

第二天,有位博主看到這視頻後,決定做個測試。

她註冊了一個新抖音號,關注了一笑傾城,不斷給老年人視頻點讚,在網絡世界裏喬裝成中老年人。

如此操作一個小時後,她發現自己進入了一個新世界。

在線 PK的不再是年輕的主播,而是幾位毛髮稀疏、頭頂鋥亮的大爺;線上連麥的網友,也是差不多歲數的阿姨。

在一個大爺品茶的視頻下方,排在前列的評論,都來自於真實的中老年人。

但當博主切回自己的賬號,找到這條品茶視頻時,評論區的第一條卻是一個從未見過的評論。

這意味着,不一樣的年齡看到的評論區也不一樣。

事情發酵後,立馬引來了眾多網友的質疑。除了轉發和評論,他們還紛紛跑到原視頻評論區下,做起了測試。

有人問,能看到他評論的網友,是男是女;

有人貼出自己的評論區截圖,讓其他人看看是否一樣;

還有不少人聯想到之前的經歷,認定「算法確實在定製評論區」。

比如一位四川 IP的網友說,每次刷到第一條評論都是吃個四川人。

也有一堆人表示難怪每次刷評論,發現別人都在虛空對線,合着評論區就不是一個版本唄。

甚至還有更「陰謀論」的說法,認為這是短視頻平台通過算法,故意挑起男女對立。

其實在聽說這事後,差評君也拿了三個同事(1男2女)的手機做了測試。

但我們發現,在原視頻下方,除了個別評論的順序稍有不同,評論區整體來說是一樣的。

為了排除同 IP的情況,我也找了幾十公里開外的朋友測試,情況也是如此。

可能我們來遲了,或者還在灰度?

後來我也另外翻看了幾個博主,分別是美女主播、男科大夫、彩禮話題的律師。

這些主題相對容易引起性別對立,我想看看他們的評論區是否有網友說的「性別定製」。

結果在最後一位律師的評論區,我們才遇到靠前評論差別較大的情況,至於其他兩位,完全一致。

基於此和以往經驗,我不能說短視頻平台的評論排序是在故意推動什麼,但我可以說:

它絕非是完全按照熱度&時間的維度排序。

以往我們打開一些社交平台的評論區,會看到這樣兩個選項:熱度&時間。

但是在短視頻平台,用戶卻沒有選擇評論排序的權利。

比如抖音上熱度低的評論有時會在熱度高的前面;

類似情況也出現在快手。

我們是沒法判斷短視頻評論區是否接入了算法,但,要是連評論排序都不給用戶自主選擇的權利,這無疑也會加重信息繭房,進而帶偏大家的三觀。

首先要弄清楚的是,「信息繭房」不是算法時代的產物,它源自於桑斯坦2006年的書《信息烏托邦》,講的是一個現象:

公眾只會注意自己選擇的東西和使自己愉悅的領域,久而久之,會將自身桎梏於像蠶繭一般的「繭房」中。

而算法的出現,會加劇「信息繭房」形成。

因為我們不斷被投餵自己喜歡看的,想要看的東西。信息輸入一旦單一化,我們看事情的維度也會變得單一,思維就會狹隘。

德國電影學家 Siegfried Kracauer寫過一本書《電影的本性》,當中講到一個故事。

有導演拍了部城市小短片,放給從沒接觸電影的非洲土著居民觀看。

影片裡展示的是燈紅酒綠,高樓大廈,結果看完後觀眾對這些毫無反應,只熱烈討論短片中短暫出現的一隻雞。

導演自己都不知道短片裡會有一隻雞,後來發現在某1秒鏡頭的角落晃過一隻雞。

為啥土著人關注到了雞?因為他們只認識雞,所以雞成了主角,不認識的高樓大廈變成了背景。

後來電影學中就有這麼一句話:你是否看見了一隻雞。

意思是每個人在閱讀一部作品時,我們看到的,只是我們眼中的那隻雞,它取決於我們所接收過的信息。

就好比讓大伙兒說一部自己最喜歡的電影,你也許會選《奧本海默》,你的朋友可能會選《芭比》,你的表舅可能選《戰狼》。

但不管是誰選,他的答案一定局限在「他所看過的電影」。

決定答案的,是經歷,是認知,是輸入進腦里的信息。一旦算法讓你接收到的信息變得單一,你看待和分析事情就會變得片面。

片面是其一,其二,變得極端。

因為我們只能聽到自己認同的看法,在不斷重複不斷加深後,我們思維就會固化,排除異己,最終出現回音室效應,觀點在腦子裏放大,膨脹,變得極端。

在網絡上我們經常會看到,持不同意見的人吵得不可開交。

因為在他們目光所及的世界裏,他們都覺得自己是正確的,是大多數,和自己不一樣的人簡直不可理喻。

但真實複雜,包羅萬象的世界,事情並不是非黑即白的。

不知道大家有沒有同感,即使是在評論按熱度排序的年代,很多帖子裏,也經常出現整個樓層的三觀被高贊評論帶偏的情況,持相反意見的人排在很後面才能被看到。

因為人都有從眾心理,相對於宣揚自己的判斷,人們更傾向於不孤立自己。自己的想法,有時還要看到風向才能確定。

那如果評論區再乾脆不按熱度排序,交由算法統治了,又會是什麼樣子呢?

這會導致有共同的標籤(性別、愛好)的人,被拉在同一個群體評論區,會導致一些本該被你掃到一眼的相反意見完全消失。

人們更容易趨於一致,也更容易極端化,和別的群體會更割裂。

你可以想像一下,如果男女真的分開上網,雙方完全聽不見對方的想法,性別對立是會減小還是大大加深呢?

當然,以上種種,對於大部分人來說,不過只是一種隱憂。

真正信息繭房的形成,條件比較苛刻。

清華大學和中國傳媒大學兩位學者曾發表一篇文章,提到「信息繭房」是個似是而非的概念,沒有有力的研究能證實它的存在,造成「信息繭房」的環境很難出現。

諸如2019年第3季度,抖音用戶數6.06億,快手用戶數4.14億,這些用戶重合率達到36.4%,這意味着人們一般不大可能處在一個能形成信息繭房的「單一信息環境」里。

畢竟,我們平時接受信息的方式有很多,各種社交媒體平台、朋友圈等等,這些都可以幫助我們去認知世界。

真正值得擔心的,則是一部分被忽略的群體,比如:中老年人。

他們往往處在低頻、單線程的社交環境中,他們認識互聯網世界的方式,除了微信可能只有某個短視頻平台。對於他們來說,長期只獲取自己「應該」獲取的信息,真的沒問題嗎?

不過,即便信息繭房形成條件苛刻,也並不妨礙大家關注和警惕它。

今日頭條是最早一批用算法機制的新聞 App,推出僅四年,日活超6000萬,用戶平均使用時長76分鐘。

這就是個性化推薦的魔力,吸引用戶,留存用戶。

在當時,我們並沒有覺得這件事有啥不對勁,只覺得很新鮮,甚至有點沉迷。

之後這些年,越來越多 App接入算法系統。從以「關注體系」為生的微博,到以專業戰報起家的懂球帝,再到以傳統論壇獲得網友們喜愛的虎撲,紛紛改版。

無數 App寧可拋棄自己的傳統和基因,也一定要壯士斷腕般地投身算法。

雖然用戶一開始有些不適應,但日活和數據卻呈現出兩個字:真香。

久而久之,用戶也覺得可以接受,不過是內容變多變雜了嘛。

直到這次事件曝光後,大家才開始覺得不對勁了。

因為,它終於觸碰了觀眾的蛋糕。

眾所周知,視頻製作者和評論區發言者的話語權是不對等的。視頻中輸出觀點的影響力,評論區則需要一萬個持相同觀點的人才可以相提並論。

大家害怕算法剝奪自己聚起來發生的權利。

況且,算法沒有給你推薦的內容,你還可以搜索到。

但算法沒有給你推薦的評論,你很難再精準定位到它們。

它們沉底在幾千幾萬條的評論區,甚至可能被完全隱藏,在你的互聯網裏銷聲匿跡。

我明白,算法是當前信息過載的時代,簡化人們接受信息的必然產物,也是很多平台為了拉長用戶留存時間,早晚都會使用的技術手段。

但算法值得大家警惕,它像一個暗自入侵的機械人,從給你投餵視頻,到在潛移默化中影響甚至塑造我們的人格。

其實它無非就是一個數學模型,是可以調整和優化的,是能避免我們處在過於單一的信息環境中,只不過決定權在於它們背後的大腦罷了。

早之前,江湖上就流傳着一個段子:

互聯網的作用,原本是讓井底之蛙開一開眼界,認識一下井口以外的世界。可實際情況是成千上萬隻井底之蛙通過互聯網互相認識,互相認同和肯定,並經過長久的交流之後達成共識:世界確實只有井口這麼大。

詼諧的背後,是沉重的事實。

但如今看來,算法似乎讓它變得,更沉重了。

責任編輯: 李華  來源:差評 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2023/0911/1952586.html