本文來自:億恩網原創
作者:含.楓
引言 7月1日,據《華爾街日報》報道,Facebook最近發布的一份研究報告顯示,這家公司曾在2012年進行了一次針對用戶情緒在網絡傳播中變化的實驗。在這項實驗中,Facebook在用戶不知情的情況下,使用了近70萬用戶的消息流 ...
7月1日,據《華爾街日報》報道,Facebook最近發布的一份研究報告顯示,這家公司曾在2012年進行了一次針對用戶情緒在網絡傳播中變化的實驗。在這項實驗中,Facebook在用戶不知情的情況下,使用了近70萬用戶的消息流(News Feeds),而這也遭到用戶的譴責。
現在,我們是時候來討論這樣一個問題:像谷歌和Facebook這類對用戶集體行為擁有巨大影響力的公司,他們所承擔的道德責任是什么?
Facebook的這項實驗結果表明,那些看到好友正面內容的用戶在Facebook上傾向于發布一些正面內容,而那些看到好友負面帖子的用戶則傾向于發布較為負面的內容。不過,研究人員發現,并沒有任何證據可以證明,Facebook確實能夠改變用戶的情緒狀態。
這項實驗“道德”與否,我們先不去討論。有些人認為,Facebook的試驗是非常可怕的,而有些人則覺得無需大驚小怪,因為它至少向我們提供一些有價值的試驗結果。
或許,有史以來,還沒有哪家公司像Facebook一樣,能夠對我們所想、所感產生如此大的影響力。
Facebook的規模和它所能觸及的范圍是其他媒體所無法達到的。如果Facebook選擇去做,它能夠挖掘很多用戶個人隱私信息,比如用戶的性取向、感情狀況、吸毒傾向、智商、政治取向等等。
現在的問題是,Facebook是否會選擇這樣做?如果做,它會選擇什么時候呢?Facebook不光可以將這些隱私數據賣給廣告主,它也可以使用這些數據來影響用戶情緒狀態,從而實現某種“特殊”目的。
比如,如果你的信息流中同時出現了正面內容和負面內容,這些內容會不會誘使你花更多的時間待在Facebook上呢? Facebook這項試驗結果也反映出了,Facebook就能夠決定你所閱讀的內容,而將這種能力與你在Facebook所花費時間聯系起來,這僅僅是這家公司統計學方面一次微不足道的嘗試。
為了能夠讓用戶在Facebook待足夠長的時間, Facebook如果不使用這種方式來操控用戶的情緒,那它就是大傻子。Facebook所使用的算法能夠決定用戶信息流中所顯示的內容不會被公開出來,這樣我們就根本不知道它到底如何來操縱這一切,同時也沒有任何監管法律也制止它這樣去做。
還有一個可以證明Facebook巨大影響力的例子。2010年,Facebook向外界展示了,它能夠通過向用戶推送信息方式來提升美國國會選舉投票率。也就是說,Facebook那會已不知不覺地影響到了美國國會選舉。
決定Facebook信息流的算法、谷歌搜索結果以及Twitter “發現”標簽中顯示帖子功能等等,它們都是“黑盒子”。到現在,我們甚至都不知道Facebook如何來影響12億用戶的。
如果Facebook CEO馬克扎克?伯格決定成為像赫斯特的媒體大亨,沒有什么能夠阻擋他的。通過某些形式,Facebook可以成為一家大型媒體公司。跟其他媒體公司不同,Facebook依靠的是其龐大的數據庫和針對每個單一用戶的細微算法改變能力,從這一點講,Facebook擁有著更大的影響力。
我們也需要發問:Facebook是否可以用一種“道義”方式來正確使用這些數據。如果Facebook能夠從我們所發的帖子中推斷出我們的心情,它是否可以開發出一種算法,能夠判斷出哪類用戶有暴力傾向,或者自殺傾向呢?Facebook能否為那些悲痛欲絕的用戶,展示可以讓他們重新振作起來的積極內容呢?
最新消息,Facebook已就使用用戶信息做實驗的事件做出道歉。扎克伯格在Facebook個人主頁上寫道:“我們做了一項糟糕的工作,對此,我感到抱歉。”
掃碼關注二維碼
2025-03-12 20:50
2025-03-13 11:25
2025-03-13 20:24
2025-03-14 13:43
2025-03-10 11:44
2025-03-10 20:55
掃碼加入社群
掃一掃
關注億恩公眾號
http://www.xiaoerfutie.com/