午夜阳光精品一区二区三区,永久免费av网站,亚洲aⅴ乱码一区二区波多野结衣,欧美一区精品视频一区二区不卡

南京奧特賽人工智能技術(shù)研發(fā)有限公司

算法必須為社會(huì)服務(wù),而不是反過來

2022年3月1日,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《規(guī)定》),正式實(shí)施。算法推薦技術(shù)一般指通過抓取用戶日常的使用數(shù)據(jù),分析得出人們的行為、習(xí)慣和喜好,進(jìn)而精準(zhǔn)化地提供信息、娛樂、消費(fèi)等各類服務(wù)。


算法推薦的本意,是在更好地挖掘用戶潛在需求的基礎(chǔ)上,提升企業(yè)服務(wù)水平,實(shí)現(xiàn)用戶與企業(yè)的雙贏。早期沃爾瑪通過數(shù)據(jù)分析發(fā)現(xiàn)啤酒與尿布在周末存在高度相關(guān)的銷售關(guān)系,進(jìn)而改變貨架陳列,就是一個(gè)經(jīng)典的案例。


然而,近年來算法推薦在為用戶提供便利的同時(shí),“大數(shù)據(jù)殺熟”、誘導(dǎo)沉迷等不合理的應(yīng)用也在影響用戶的正常生活。隨著《規(guī)定》的實(shí)施,算法推薦會(huì)在更加規(guī)范的框架下運(yùn)營,對(duì)企業(yè)和個(gè)人會(huì)帶來哪些影響?我們邀請了北京大學(xué)新聞與傳播學(xué)院教授、“信息社會(huì)50人論壇”成員胡泳,進(jìn)行了深度解讀。


01算法如何(秘密地)管理世界


當(dāng)你在網(wǎng)上瀏覽一雙新鞋,在Netflix上挑選一部流媒體電影,或申請住房貸款時(shí),一個(gè)算法很可能對(duì)結(jié)果有話要說。


復(fù)雜的數(shù)學(xué)公式在各行各業(yè)發(fā)揮著越來越大的作用:從檢測皮膚癌,到推薦新的社交媒體朋友,決定誰能得到一份工作,如何部署警察資源,誰能以何種成本獲得保險(xiǎn),或者哪一位在“禁飛”名單上。


我們可以看到算法在這個(gè)世界上的工作。我們知道它們正在塑造我們周圍許多事務(wù)的結(jié)果。但我們大多數(shù)人都不知道算法是什么,或者我們是如何被它們影響的。


算法是一個(gè)黑盒子。

我們熟悉一些明顯的例子,比如谷歌搜索算法、亞馬遜推薦算法、百度地圖算法或美團(tuán)外賣算法。但人們很少覺察到,算法已經(jīng)被邀請進(jìn)入我們的政府、法庭、醫(yī)院和學(xué)校,它們正在代表我們作出很多決定,悄悄地、但是巧妙地改變了社會(huì)的運(yùn)作方式。


往往只有在算法出錯(cuò)的時(shí)候,我們才意識(shí)到其深入人類生活的程度。往好了說,我們與算法的關(guān)系都是一言難盡的。人對(duì)機(jī)器的態(tài)度十分復(fù)雜:有的時(shí)候,我們盲目信任機(jī)器。我們期望它們成為幾乎是神一樣的存在,如此完美,如此精準(zhǔn),以至于我們會(huì)盲目地跟隨它們,去往其所帶領(lǐng)的任何地方。


另一方面,我們又有一種習(xí)慣,一旦某一算法被證明有一點(diǎn)缺陷,我們馬上就會(huì)否定它。如果Siri出錯(cuò),或者GPS導(dǎo)航錯(cuò)誤,我們就會(huì)認(rèn)為整部機(jī)器都是垃圾。更不用說機(jī)器人醫(yī)生誤診、自動(dòng)駕駛汽車撞死行人這類事。


其實(shí)兩種截然相反的態(tài)度都沒有任何意義。算法并不完美,它們往往包含創(chuàng)造它們的人的偏見,但很多時(shí)候,它們?nèi)匀涣钊穗y以置信地有效,使我們所有人的生活也變得更加容易。因此,最正確的態(tài)度應(yīng)該是介于兩者之間。我們不應(yīng)盲目地相信算法,但也不應(yīng)完全否定它們。


人類和機(jī)器不一定要相互對(duì)立。我們必須與機(jī)器合作,承認(rèn)它們有缺陷,就像我們一樣。它們也會(huì)犯錯(cuò),就像我們一樣。


如同倫敦大學(xué)學(xué)院的數(shù)學(xué)家漢娜·弗萊所說:“我們不必創(chuàng)造一個(gè)機(jī)器告訴我們該做什么或如何思考的世界,盡管我們很可能最終進(jìn)入這樣一個(gè)世界。我更喜歡一個(gè)人類與機(jī)器、人類與算法都是伙伴的世界。”

現(xiàn)在,我們花大量精力討論,人類和人工算法最終很可能會(huì)以模糊兩者區(qū)別的方式結(jié)合起來。其實(shí)這個(gè)愿景距離我們還非常遙遠(yuǎn),因此,盡管這樣的對(duì)話很有趣,但卻也可能令我們對(duì)目前正在發(fā)生的事情分散了注意力。我們迫切需要關(guān)注的是,管理我們生活的規(guī)則和系統(tǒng)正在我們周圍發(fā)生變化,而算法是其中的關(guān)鍵部分。


我們一直生活在技術(shù)的狂野西部,在那里大科技公司可以在未經(jīng)允許的情況下收集私人數(shù)據(jù)并將其出售給廣告商。平臺(tái)正在把人變成產(chǎn)品,而他們甚至沒有意識(shí)到這一點(diǎn)。互聯(lián)網(wǎng)巨頭實(shí)際上成為巨大的媒體公司,但假扮成中立的平臺(tái),吞食曾經(jīng)維持舊媒體生態(tài)系統(tǒng)的收入,同時(shí)拒絕承擔(dān)正常形式的編輯責(zé)任。同時(shí),它們的領(lǐng)導(dǎo)人擁有跨國管轄權(quán),行使著傳統(tǒng)的種種權(quán)力——從文化審查、政治放逐到構(gòu)建巨大的市場——卻缺乏傳統(tǒng)的監(jiān)督機(jī)制。


在此過程中,即便某一個(gè)特定的算法是有效的,也沒有人評(píng)估它是否為社會(huì)提供了凈利益,還是消耗了大量的社會(huì)成本。不存在任何人、任何機(jī)構(gòu)做這些檢查。只有到一系列問題浮出水面之后,各方才逐漸形成共識(shí):社會(huì)需要一個(gè)強(qiáng)大的算法監(jiān)管框架。


02中國走在全世界算法監(jiān)管的前列


在中國,應(yīng)用程序(App)近年來蓬勃發(fā)展,這要?dú)w功于它們?yōu)橛脩籼峁┢渌埠玫囊曨l、開展產(chǎn)品和服務(wù)比價(jià)或完美定制消費(fèi)的能力。但是中國第一部算法法規(guī)的出臺(tái),似乎將會(huì)限制科技巨頭的這些能力。


2021年11月16日,國家互聯(lián)網(wǎng)信息辦公室審議通過了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,2022年伊始,會(huì)同工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局聯(lián)合發(fā)布,自2022年3月1日起施行?!兑?guī)定》旨在遏制算法不合理應(yīng)用導(dǎo)致的問題。由于種種不合理的應(yīng)用,在過去很長一段時(shí)間里,公司和商家能夠利用看似無所不知的算法來鎖定特定人群或個(gè)人,以銷售產(chǎn)品或影響意見。


算法新規(guī)是否會(huì)影響從阿里巴巴、騰訊到美團(tuán)、字節(jié)跳動(dòng)等公司的商業(yè)模式,以及監(jiān)管機(jī)構(gòu)又將如何執(zhí)行該法規(guī),都值得我們下一步密切關(guān)注。


以下是算法法規(guī)中的一些重要條款:

公司不得利用算法推薦從事法律、行政法規(guī)禁止的活動(dòng),如危害國家安全和社會(huì)公共利益、擾亂經(jīng)濟(jì)秩序和社會(huì)秩序等。


算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型。


鼓勵(lì)算法推薦服務(wù)提供者綜合運(yùn)用內(nèi)容去重、打散干預(yù)等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對(duì)用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛。


算法推薦服務(wù)提供者提供互聯(lián)網(wǎng)新聞信息服務(wù)的,應(yīng)當(dāng)依法取得互聯(lián)網(wǎng)新聞信息服務(wù)許可,不得生成合成虛假新聞信息,不得傳播非國家規(guī)定范圍內(nèi)的單位發(fā)布的新聞信息。


算法推薦服務(wù)提供者應(yīng)當(dāng)以顯著方式告知用戶“算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制”等。


算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供選擇或者刪除用于算法推薦服務(wù)的針對(duì)其個(gè)人特征的用戶標(biāo)簽的功能。


算法推薦服務(wù)提供者不得向未成年人推送可能引發(fā)未成年人模仿不安全行為和違反社會(huì)公德行為、誘導(dǎo)未成年人不良嗜好等可能影響未成年人身心健康的信息,不得利用算法推薦服務(wù)誘導(dǎo)未成年人沉迷網(wǎng)絡(luò)。


算法推薦服務(wù)提供者向老年人提供服務(wù)的,應(yīng)當(dāng)保障老年人依法享有的權(quán)益,充分考慮老年人出行、就醫(yī)、消費(fèi)、辦事等需求。


算法推薦服務(wù)提供者向勞動(dòng)者提供工作調(diào)度服務(wù)的,應(yīng)當(dāng)保護(hù)勞動(dòng)者取得勞動(dòng)報(bào)酬、休息休假等合法權(quán)益,建立完善平臺(tái)訂單分配、報(bào)酬構(gòu)成及支付、工作時(shí)間、獎(jiǎng)懲等相關(guān)算法。


算法推薦服務(wù)提供者向消費(fèi)者銷售商品或者提供服務(wù)的,應(yīng)當(dāng)保護(hù)消費(fèi)者公平交易的權(quán)利,不得根據(jù)消費(fèi)者的偏好、交易習(xí)慣等特征,利用算法在交易價(jià)格等交易條件上實(shí)施不合理的差別待遇等違法行為。

這些規(guī)定反映了當(dāng)今中國社會(huì)最關(guān)注的一些問題——大型科技公司的透明度和反競爭行為、網(wǎng)上內(nèi)容控制、零工經(jīng)濟(jì)、人口老齡化、未成年人保護(hù)等,并尋求在算法被用來腐蝕社會(huì)團(tuán)結(jié)或加劇市場問題之前未雨綢繆。

實(shí)質(zhì)上,《規(guī)定》要求在其服務(wù)中使用基于算法的推薦的公司提供更多的透明度,說明這些算法是如何工作的,以及將對(duì)用戶產(chǎn)生什么影響。《規(guī)定》要求平臺(tái)“積極傳播正能量”,并確保它們的算法應(yīng)用“向上向善”;禁止它們設(shè)計(jì)誘使用戶參與“過度消費(fèi)”或?qū)ζ脚_(tái)上癮的模式;禁止它們?yōu)E用個(gè)人信息,實(shí)行“大數(shù)據(jù)殺熟”;鼓勵(lì)平臺(tái)綜合運(yùn)用內(nèi)容去重、打散干預(yù)等策略,不得利用算法操縱榜單、控制熱搜等干預(yù)信息呈現(xiàn);要求平臺(tái)滿足不同群體的利益訴求,更好保障未成年人、老年人、勞動(dòng)者等群體權(quán)益,消除算法歧視等。


這些要求與許多內(nèi)容平臺(tái)、社交媒體、游戲廠商或電子商務(wù)供應(yīng)商現(xiàn)行的商業(yè)模式不盡一致,預(yù)計(jì)會(huì)對(duì)所有過度依賴預(yù)測消費(fèi)者偏好而將其商業(yè)模式與之掛鉤的公司產(chǎn)生影響。

但算法法規(guī)的執(zhí)行可能會(huì)在監(jiān)管機(jī)構(gòu)和科技公司之間引發(fā)沖突。這是因?yàn)?,為了讓監(jiān)管機(jī)構(gòu)發(fā)現(xiàn)違規(guī)行為,它們可能不得不檢查算法背后的代碼。而算法是一個(gè)公司最深藏的秘密,也是其最寶貴的資產(chǎn),讓政府在其中展開挖掘,有可能帶來很多爭議。比如,監(jiān)管部門能獲得多少代碼的權(quán)限?即使它們可以接觸到代碼,真的能確保算法違規(guī)的事情不再發(fā)生嗎?

同時(shí),監(jiān)管機(jī)構(gòu)在試圖監(jiān)督科技公司的算法方面,將進(jìn)入一個(gè)未知的領(lǐng)域。鑒于算法新規(guī)的規(guī)定相當(dāng)廣泛,部分內(nèi)容具有較強(qiáng)的技術(shù)性,無論對(duì)執(zhí)法機(jī)構(gòu)和公司來說,都是一個(gè)學(xué)習(xí)過程,它們將承擔(dān)遵守這些規(guī)定的主要責(zé)任。
然而,無論從哪方面看,這些規(guī)定都代表了全球最領(lǐng)先的算法監(jiān)管框架之一。所有本地消費(fèi)產(chǎn)品和零售服務(wù)商、電商公司、短視頻應(yīng)用和社交媒體平臺(tái)都將受到這一法規(guī)的影響。根據(jù)新規(guī)則,算法將不再被允許影響網(wǎng)絡(luò)輿論,逃避監(jiān)督管理,或促成壟斷和不公平競爭。當(dāng)然,對(duì)于收入可能在短期內(nèi)受到影響的企業(yè)來說,這不是一個(gè)好消息。但是,如果企業(yè)現(xiàn)在必須重新談判他們與用戶的關(guān)系,而把數(shù)字生活的控制權(quán)至少部分交還給用戶,這難道不是一件好事嗎?


03大規(guī)模展開的社會(huì)實(shí)驗(yàn),必須認(rèn)真對(duì)待


眼下,全球各國政府都紛紛提出立法建議,試圖遏制科技巨頭的權(quán)力。這些巨頭的算法被指推薦加劇仇恨言論和惡化政治極化的帖子,促成封閉和高度同質(zhì)化的回聲室而讓每個(gè)人得到自己的現(xiàn)實(shí)片斷,在電商交易中偏向平臺(tái)和平臺(tái)可以收取服務(wù)費(fèi)的賣家,誘使青少年進(jìn)行不當(dāng)?shù)纳鐣?huì)比較并放大他們在社交網(wǎng)絡(luò)中的不安全感等等。對(duì)頭號(hào)互聯(lián)網(wǎng)大國美國來說,監(jiān)管互聯(lián)網(wǎng)平臺(tái)的挑戰(zhàn)比中國更棘手,因?yàn)槊绹鴳椃ǖ谝恍拚赶拗屏苏钏綘I公司刪除某些類型內(nèi)容的能力。

很明顯,在反壟斷方面,中國目前比美國的力度大得多。體現(xiàn)在算法監(jiān)管上,中國的領(lǐng)先體現(xiàn)在:其一,中國的算法法規(guī)強(qiáng)調(diào)算法的透明度和可解釋性,強(qiáng)大的透明度要求、嚴(yán)格的算法機(jī)制機(jī)理審核和科技倫理審查,凸顯了適當(dāng)?shù)钠脚_(tái)監(jiān)督的重要性,如果缺乏這種監(jiān)督,平臺(tái)可能因?yàn)闄?quán)力過大而對(duì)社會(huì)造成損害。

其二,中國的算法法規(guī)明確提出讓用戶控制推薦算法,這將迫使平臺(tái)尊重隱私或在算法上不那么具有強(qiáng)制性。平臺(tái)應(yīng)該致力于提供算法推薦服務(wù)以外的服務(wù)版本,其中的內(nèi)容不是由“不透明的算法”所選擇的。比如,社交媒體平臺(tái)應(yīng)當(dāng)允許用戶完全關(guān)閉推薦算法,而只是按照時(shí)間順序查看帖子。
用戶在與互聯(lián)網(wǎng)平臺(tái)接觸時(shí)應(yīng)當(dāng)獲得選擇余地,而不被由用戶特定數(shù)據(jù)驅(qū)動(dòng)的秘密算法所操縱??萍脊拘枰拐\地說明用戶和平臺(tái)的主要算法之間的關(guān)系到底是如何運(yùn)作的,并給予用戶更多的控制權(quán)。從長遠(yuǎn)來看,只有當(dāng)人們對(duì)算法系統(tǒng)的工作方式有更多的了解,并有能力對(duì)其進(jìn)行更多的知情控制時(shí),他們才會(huì)對(duì)這些系統(tǒng)感到放心。

當(dāng)然,挑戰(zhàn)仍然存在。比如,對(duì)算法透明度和用戶控制的推動(dòng)讓人想起了隱私聲明中的“知情同意”框架。兩者都依賴于用戶能夠理解他們所得到的關(guān)于某個(gè)系統(tǒng)的信息,然后對(duì)自己是否或如何使用它作出選擇。然而,熟悉隱私政策的人都知道,“無人閱讀隱私協(xié)議”是網(wǎng)絡(luò)隱私保護(hù)的一個(gè)痼疾,原因在于,用戶認(rèn)為隱私協(xié)議通常都又長又難讀。如果你認(rèn)為隱私聲明的可讀性很強(qiáng),那么試著解釋一下算法看看。

而且,很多在網(wǎng)絡(luò)上暴露出來的問題并不能夠全然歸咎于算法。即使允許用戶選擇算法,用戶也未必主動(dòng)選擇使他們的動(dòng)態(tài)新聞流更加多樣化,并參與更廣泛的意見和信息來源。當(dāng)涉及到仇恨言論、極端主義和錯(cuò)誤信息時(shí),算法甚至可能都不是問題的最危險(xiǎn)部分。真正的問題是人們在平臺(tái)上尋找仇恨或極端的言論并找到了它們。同樣,當(dāng)你看到圍繞錯(cuò)誤信息和虛假信息所發(fā)生的事情時(shí),有一些證據(jù)表明,它們不一定是通過算法提供的,而是來自人們選擇加入的群體。
許多對(duì)算法的擔(dān)憂,其核心來自我們的一種假設(shè),即在人類和復(fù)雜的自動(dòng)化系統(tǒng)之間,我們不是控制者,人類的作用已經(jīng)被削弱了?;蛘?,正如《華爾街日報(bào)》的技術(shù)專欄作家喬安娜·斯特恩所宣稱的那樣,我們已經(jīng)“失去了對(duì)我們所看、所讀——甚至所想——的控制,把控制權(quán)拱手讓給了那些最大的社交媒體公司”。

事實(shí)是,機(jī)器并沒有全盤接管,但毫無疑問它們會(huì)長久留在這里。我們需要與它們和平相處。更好地理解用戶和算法之間的關(guān)系,符合每個(gè)人的利益。人們需要對(duì)現(xiàn)代生活中不可或缺的系統(tǒng)有信心。互聯(lián)網(wǎng)需要新的道路規(guī)則,在獲得廣泛的公眾同意之后。而科技公司需要了解社會(huì)對(duì)其運(yùn)作感到滿意的參數(shù),這樣它們才有可能繼續(xù)創(chuàng)新。這始于開放和透明,以及給用戶更多的控制權(quán)。

每一個(gè)社交媒體平臺(tái),每一個(gè)成為我們生活一部分的算法,都是人類目前正在大規(guī)模展開的社會(huì)實(shí)驗(yàn)的一部分。全世界有數(shù)十億人在與這些技術(shù)互動(dòng),這就是為什么哪怕算法上最微小的變化都會(huì)對(duì)全人類產(chǎn)生巨大的影響。而科技公司,不管是被動(dòng)的還是主動(dòng)的,正開始認(rèn)識(shí)到這一點(diǎn),并認(rèn)真對(duì)待。歸根結(jié)底,算法必須為社會(huì)服務(wù),而不是反過來。

? Copyright 2013 南京奧特賽人工智能技術(shù)研發(fā)有限公司 版權(quán)所有 備案號(hào):蘇ICP備19032300號(hào)-1 蘇公網(wǎng)安備32011602010459 技術(shù)支持:科威鯨網(wǎng)絡(luò)