<track id="njnlj"></track>

    <track id="njnlj"><strike id="njnlj"><span id="njnlj"></span></strike></track>
    <pre id="njnlj"><strike id="njnlj"></strike></pre>
    <noframes id="njnlj">
    <pre id="njnlj"><strike id="njnlj"><ol id="njnlj"></ol></strike></pre>
    <pre id="njnlj"></pre>

    <track id="njnlj"><strike id="njnlj"></strike></track>
    <pre id="njnlj"></pre>
    <address id="njnlj"><pre id="njnlj"></pre></address>

    如何監督“算法監工”——職場管理算法及其規則

    陳永偉2022-09-13 03:13

    陳永偉/文

    管人、裁人的竟然不是人

    最近,一則臉書解雇60名員工的新聞登上了一些媒體的顯著位置。在經濟衰退的陰影之下,企業出于降本增效的目的辭退一部分員工是尋常的事情,即使裁員的企業是臉書這樣的互聯網巨頭也不例外。為什么這個新聞如此引人關注呢?答案是,主持這次裁員的,并不是人,而是算法。

    根據報道,此次被解雇的60名員工都屬于勞務派遣性質,是臉書通過埃森哲奧斯汀分公司聘用的。此前,臉書和埃森哲簽訂了一個五億美元的合同,用以雇傭負責內容審核和商業誠信的員工,此次被解雇的員工就是這批雇員的一部分。那么,臉書究竟是通過什么程序決定留下誰,又裁掉誰的呢?最初的一些報道對此給出的說法是:臉書是通過算法“隨機”挑選的裁員對象。類似的報道出現之后,輿論嘩然。在各種社交媒體上,出現了大量聲討臉書的聲音。

    之后,有一名被辭退的員工爆料,臉書的這次裁員并沒有那么隨機,而是嚴格按照績效考核辦事的結果。這位被裁員工表示,在他們為臉書工作期間,臉書會在他們工作的電腦上安裝監控程序來監視他們的工作狀況。一旦發現工作中出現了違規或偷懶,就會進行記錄。例如,只要程序觀察到他們的電腦有超過8分鐘的不活躍,就會自動判定他們正在休息,并將這些“休息”時間進行累計。按照規定,每個員工每天有30分鐘的就餐時間和30分鐘的休息時間,因而員工每天的“合法”休息時間是1個小時。如果程序監控到的“休息”時間超過了1個小時,就會對員工進行警告,并扣除相應的績效分數。類似的,如果員工上班遲到,或者出現了其他的違規行為,績效分也會遭到扣除。在決定裁員時,這些平時積累的績效分數才是真正的評判標準。

    然而,相比于隨機的裁員,這種隨時監控員工的行為顯然更加被人們厭惡——至少,前者多少還有一些“公平”性,而后者則是赤裸裸剝削的表現。

    職場管理算法越來越多

    或許,那些在網上痛罵臉書用算法來決定裁員名單的人并不知道,那些被算法裁掉的人最初很可能也是由算法招進來的。作為一家在行業內處于領先地位的企業,臉書每天都會接到上千封的求職申請。要從如此龐大的申請人員中挑選出合適的員工,著實不是一件容易的事情。因此,臉書的HR部門從很早開始就借助算法來進行簡歷的初篩。如果是像內容審核等對技術要求不高的崗位,可能都不用勞煩HR出馬,算法自己就可以做決定。被算法招入公司,在公司被算法監控,然后又被算法踢出公司,這倒也算是達到了某種意義上的“圓滿”了。

    用算法來充當HR和“監工”的,并不只有臉書一家。事實上,用算法來進行人力資源管理的做法非常常見。例如,早在2015年,亞馬遜就針對其倉儲管理開發了一套AI效率監測和評估系統。這套系統可以實時監控員工的工作狀況。如果發現工人取貨時間過長,或者出現了違規休息的情況,系統就會自動將員工打上“效率低下”的標簽,并對其給予相應的警告和處罰。根據TheVerge的報道,在2017年到2018年期間,亞馬遜的某個分揀中心就有約300名員工因被算法判定為“效率低下”而遭到解雇,這個人數已經占到了該分揀中心員工數的12%。當然,除了亞馬遜、臉書這種巨頭級別的企業外,很多規模相對較小的企業也開始使用算法來管理員工。例如,去年新聞就有報道游戲行業支付處理公司Xsolla使用算法裁掉了150名員工。

    在國內,類似的做法也正在變得越來越常見。比如,2020年,一篇《外賣騎手,困在系統里》的文章在朋友圈刷屏。從這則報道中,我們已經可以窺得一些國內企業通過算法控制員工的現狀。時隔兩年之后,情況是否有所改善呢?或許,對于外賣等因被媒體報道而受到了監管部門“重點關照”的行業,答案是肯定的,但對于更多行業而言,情況則更可能是沒有改善。事實上,出于節約成本、提升效率的考慮,已經有越來越多的企業開始學習臉書、亞馬遜等公司的“先進經驗”,開始用算法來招聘、監督、辭退員工。尤其是很多規模不算大的企業,其節約成本的動機更強,因而在對員工管理的過程中,反而會比大型企業更多地依賴于算法。例如,不久前,新聞上就爆出某地的一家互聯網企業除了通過在工作電腦上安裝監控程序外,還專門開發了可以監控員工心率、呼吸、坐姿、疲勞感等數據的“高科技坐墊”。其對員工的控制力度和范圍,著實令人吃驚。

    隨著越來越多的企業開始用算法來管理員工,相關的創業項目也受到了追捧。在近幾年,就有不少從事AI招聘、AI監控項目的企業拿到了大額的投資,而投資人中就包括了臉書、亞馬遜等最早使用算法進行員工管理的巨頭??磥磉@些巨頭真的已經從自身的實踐當中,體會到了這一賽道的前途無量。

    職場算法的問題

    除了人們經常譴責的不近人情外,用算法充當“監工”的做法還會帶來很多新的問題,而這些問題中的很大一部分,甚至是在被監控的員工們不知情的情況下產生的。

    仍以亞馬遜為例。依靠其在監督員工工作時的鐵面無情,開除員工時的雷厲風行,亞馬遜的倉儲物流員工監督系統在業內贏得了昭彰惡名。然而,人們并不知道的是,倉儲物流員工監督系統僅僅是亞馬遜諸多員工監控程序中的其中之一。2021年時,美國非營利組織Coworker.org曾對市場上的勞動力監控軟件的狀況進行了一次調查。調查結果顯示,亞馬遜購買并擁有的勞動力監控軟件總共有十多項——這個數字還僅僅是亞馬遜從第三方供應商那里購買的軟件數,不包括其自研的產品。這些軟件搜集的數據可能決定著員工的職場命運,而員工甚至可能并不知道它們的存在。由于這些軟件中很多是由第三方企業提供的,因此亞馬遜員工的數據也很可能就在不知不覺泄露到了這些第三方企業手中。但令人遺憾的是,當自己的信息受到侵犯時,這些信息的所有人幾乎毫不知情。

    值得注意的是,樂于使用這些監控軟件的,并不限于亞馬遜這樣“剝削”沉重的企業。根據Coworker.org的報告,即使被稱為“職場養老院”的谷歌,也購買了七種職場監控軟件。這意味著,盡管谷歌從名義上并不強迫員工辛勤工作,但事實上,如果員工對其信以為真,在工作中自由散漫,那么偷偷在一旁監視的程序也會將他們的行為記錄在案,并作為秋后算賬的依據。而那些與工作之外的信息,也可能在這個過程中一并被搜集。

    應用職場算法的利與弊

    隨著越來越多的企業開始用算法管理自己的員工,關于其利弊的討論也引發了更多的討論。

    客觀地說,在職場管理中應用算法,其本身是可以帶來很多好處的。對于企業主而言,這種做法可以大規模節約管理的成本。而對于員工來說,如果算法本身設計合理,那么它就可以有效地排除各種主觀因素的干擾,實現考核的公平。在關于臉書用算法裁員事件的評論當中,有一條是這樣的:“這樣做除了可以保證員工不用再費心去討好自己的領導外,我幾乎看不到任何用算法來管理人的好處。”雖然這個評論明顯是在諷刺臉書的做法,但客觀上也道出了實情。

    在現實中,職場的人情關系十分復雜。在人治為主的組織,員工績效的考評常常被少數的幾個人掌握,這樣就可能造成不公平。而如果用算法來替代人執行監督和考評,就可以很好地解決這個問題。除此之外,在職場當中,基于身份的歧視也是一個難以解決的問題。具有某些身份(如籍貫、性別、民族)的人,經常會在職場中遭遇很多不公。過去,由于對人員的管理都是由人進行的,因此這種偏見很難被排除。而如果用算法來管理職場,就很容易在招聘和管理的相關算法中排除上述因素的干擾。從這個角度看,算法其實只是人們手中的一個工具。如果應用得當,它是完全可以被用來改善職場狀況的。

    所以,真正的問題其實不在于算法本身,而在于現在的企業用算法干了不對的事。事實上,像臉書、亞馬遜那樣用嚴苛的算法來管理員工,就是企業出于自身利益的考慮,對員工進行了高強度的剝削和壓榨。從本質上看,這和傳統的“血汗工廠”做的并沒有什么不同,唯一的區別僅僅是它們把原來由真人擔任的監工改成了更為隱秘的算法。產生這種情況的根源,是企業和雇員在勞動力市場上的不對等地位。尤其是在當前就業形勢日益嚴峻的大背景下,用人單位正掌握越來越大的市場力量。在很多場景下,應用算法來監督、篩選和壓榨員工,其實可以被看作是這些企業在勞動力市場上濫用其市場力量所產生的后果。

    難管,但不得不管

    隨著算法使用的日益頻繁,其產生的問題也開始被越來越多的人所重視。過去幾年中,就出現了很多與算法相關的案例,比如我們熟悉的“大數據殺熟”、“算法合謀”等問題,都是與算法相關的問題。

    不過,從總體上看,目前已經被正式處理的算法案例大多集中在企業與其他市場主體之間,而類似用職場算法來監控員工這樣的問題則相對較少受到關注,得到處理的案例也比較少。其原因是多方面的:第一,對于員工,用人單位享有管理權。據此,用人單位當然可以在一定程度內對員工的行為進行監控。第二,對員工使用的生產工具和在工作時間創造的成果,用人單位享有財產權。為了對這些財產的安全進行保護,用人單位也必須對員工的行為進行監督。第三,對員工的必要監督,也是企業履行其責任和義務所必須的。例如,企業需要保證員工所處環境的安全性,以及不受他人的侵犯和傷害。而要做到這些,就必須進行相應的監控。

    基于以上原因,企業在工作時間內監控員工確實是具有一定的合理性的。而在國內外的一些相關案例中,監控員工的企業也經常會用上述這些理由來論證自身的合理性。這就造成了人們很難在企業是否應該監控員工、監控到什么度之間找到一個合理的邊界,而基于算法的監控是否應該被允許,也就成了一個很難說清楚的問題。至于在算法監控的背后,有多大程度上是源自于企業濫用自己在勞動力市場上的市場力量,這一點則更難搞明白。

    但是,僅僅因為用算法監控員工是企業內部的事情就可以不聞不問了嗎?答案當然是否定的。事實上,用算法監控、考評員工,甚至決定員工獎懲、去留的行為,可能會涉及很多不得不重視的法律和倫理問題:

    首先,這可能構成對員工人格權的損害。正如我們看到的,企業在監控員工的過程中,會搜集大量有關員工的個人信息和行為數據,而這就可能將很多用戶不愿透露的隱私造成意外暴露。如果企業對這些信息保存不善,還可能引起它們的意外泄露。與此同時,企業在搜集了員工的信息后,通常會基于這些信息對員工給出相應的獎懲。但由于算法設計的局限性,這些獎懲通常會伴有一定的歧視性。除此之外,當人們被置于一個時刻都被算法監控的工作環境中時,還很容易陷入焦慮,引發各種負面情緒,這就可能構成對一般意義上的人格權的侵害。

    其次,這可能會侵犯到員工的通信自由和通信秘密。一些用人單位不僅會用算法監控員工的行為,還會用算法獲取他們在郵箱等通信工具中的通訊信息。這樣的監控,就會在侵犯員工人格權的同時,侵犯其通信自由和通信秘密。

    再次,這還可能意外引發對員工人生和財產安全的損害。不少用人單位搜集的員工信息非常詳細,除了其工作期間的數據外,還包括類似家庭住址、行程軌跡等十分敏感的信息。如果這些信息保管不善,落入不法分子的手中,就可能影響員工的安全。

    基于以上幾點原因,雖然要說清楚用算法監控員工行為的是非并不容易,但這個問題本身必須引起我們的重視。為了規范職場秩序,協調好勞資雙方的矛盾,必須將企業的類似行為納入相應的規制體系當中。

    如何規制職場算法

    那么,對于職場算法監控問題的規制應該從何入手呢?從國內外的經驗看,這主要涉及三條路徑:

    第一條路徑是從個人信息保護入手,通過明確員工對其隱私和個人信息所保有的權利,并從此出發對企業的算法監控行為劃定界限。

    現在,國內國外的相關法律都從個人信息保護角度對企業搜集勞動者數據提出了一定的原則。這些原則包括目的限制原則以及“合理隱私期待”等。

    所謂目的限制原則,指的是企業在搜集員工的信息時,必須有明確、合理的目的,并且其搜集的信息應當以滿足管理目的的最低限度為標準。例如,歐盟《通用數據保護條例》的第5條(b)就規定:“個人數據的搜集應當有具體的、清晰的和正當的目的,對個人數據的處理不應當違反初始目的”;而第5條(c)則規定:“個人數據的處理應當是為了實現數據處理目的而適當的、相關的和必要的”。而我國的《個人信息保護法》也在第6條規定:“處理個人信息應當具有明確、合理的目的,并應當與處理目的直接相關,采取對個人權益影響最小的方式。”“收集個人信息,應當限于實現處理目的的最小范圍,不得過度收集個人信息。”

    所謂“合理隱私期待”,指的是如果公民對某場所或物品具有主觀上的隱私期待,則政府執法人員不得對這些場所或物品實施搜查或者收押。這個原則最早出現在1967年的“凱茨訴美國政府案”(Katzv.UnitedStates)。在該案中,凱茨由于其使用的公共電話亭被聯邦官員竊聽而將后者告上了法庭。最終,美國最高法院最終認定“保護人民而非保護場所”,即只要個人的行為意愿并非想要公之于眾并刻意避免引起注意,即使發生在公開場合也應該被保護。目前,這個原則已經被歐美等國的法律條文和訴訟所吸收。

    此外,各國在相關法律中,還規定了對于個人數據和隱私的利用不得被用于歧視性的用途,還有部分國家的法律中,直接對雇主可以獲取的雇員信息進行了規定。根據以上這些原則和規定,就為企業可以通過算法搜集的數據劃定了一個范圍。在這個基礎之上,企業利用算法來監控員工的行為也就得到了一定的限制。

    第二條路徑是從算法規制入手。這個路徑主要強調要打開算法的“黑箱”,并對算法的使用進行一定的規范。關于這一點,各國也都有了一定的探索,其中以下幾條是比較有共識性的:

    首先,應該設法讓算法保持透明。這包括兩個層面:第一個層面是針對算法的應用對象,即企業的員工透明。這一點要求企業在使用算法招聘、監控員工,以及決定對員工進行獎懲之前,必須向員工進行相關的說明。說明的內容應當包括算法使用的范圍、算法的輸入、輸出和作用機制,以及算法可能對員工的權利義務產生的影響等。只有當用戶知曉這些信息,并同意使用算法時,才可以進行使用。第二個層面是針對監管部門透明。這意味著面臨監管部門的檢查,企業應當主動披露其算法的運行機制。相對于對員工的披露,對監管部門的披露應該更為詳細,以便相關專家進行評估。

    其次,應當對算法在員工管理中的應用進行一定的限制。對于一些可能排除或限制員工合法權益的領域,算法的管理應當考慮予以限制。例如,那些可能剝奪用戶休息時間,以及上洗手間時間的算法,應當慎重使用。

    再次,在算法被投入使用前,應當進行預防性的評估。

    最后,應當對用人單位不當使用算法,從而給勞動者造成的損害和不良后果進行問責。目前,我們依然處于弱人工智能階段,從本質上看,算法只是人進行決策的一個工具。因而,算法造成的后果依然要由使用算法的人來承擔。

    第三條路徑是對勞動力市場的反壟斷。如前所述,企業能夠用算法來監控、剝削員工的前提,是其和員工之間存在著一種不對等的地位。作為勞資雙方,這種不對等關系在一定范圍內是正常的。不過,如果企業濫用其在勞動力市場上的市場力量來強化這種不對等,就是另外一種情況了。這時,監管部門就可以依托《反壟斷法》或者其他的手段,對企業的違法行為進行處理。

    需要指出的是,以上的三條應對路徑并不是獨立的或矛盾的。在實踐當中,如果可以將這三條路徑進行配合,就可以更有效地規范算法在職場中的應用。

    DAO:另一條道路

    除了加強監督的力度之外,應對職場監督算法帶來的各種問題的另一條思路或許是從組織的內部進行突破。

    隨著Web3.0時代的到來,一種新的組織形式——DAO正在得到越來越多人的重視。所謂DAO,是“去中心化自治組織”(DecentralizedAu-tonomousOrganization)的簡稱。這個概念最早來自于EOS的創始人丹尼爾·拉里默于2013年提出的一個類似概念:“去中心化自治公司”(DecentralizedAutonomousCorporation), 即 DAC。2014年,以太坊的創始人維塔利克·布特林在此基礎上提出了DAO的概念。

    布特林對DAO的定義是從三個維度展開的:第一個維度是組織擁有的資本究竟是內部資本還是外部資本。這里,所謂的內部資本指的是組織的資本都屬于組織的成員,而外部資本指的則是組織資本來源于外部。第二個維度是組織的中心究竟是算法還是人。第三個維度是組織的邊緣究竟是算法還是人。在布特林看來,一個DAO應該是基于內部資本的,并且算法居于組織的中心,而人則處于組織的邊緣,其行為要遵從算法的規定。

    乍看之下,布特林所定義的DAO所指的就是那些正在用算法來監控員工的企業——很顯然,在這些公司中,算法是居于中心的,而員工則是圍著算法轉,接受算法的監督和領導。但事實上,DAO和這些企業存在著本質的區別:其一,由于DAO的資本是屬于組織成員的,因此所有的成員本質上都是DAO的主人,他們之間并不存在著隸屬與被隸屬的關系,因而也就不存在著剝削和被剝削。其二,雖然在DAO中也是算法指導著人,但這些算法背后的規則卻是由組織成員自身通過民主程序制定的,因而組織成員遵從算法本質上就是服從自己。其三,在那些用算法監督員工的企業中,算法所扮演的是一個強制勞動的“監工”角色;而在DAO當中,算法只是提供一套與成員利益“激勵相容”的激勵方案。成員只需要按照這套激勵方案形式,就可以在實現自身利益最大化的同時達成組織的目標。

    從實踐上看,現在已經有很多的企業(尤其是一些投資公司和律所)對自己進行了DAO改造。在改造之后,這些組織的管理和運作方式都從基于人改成了基于算法。如果僅從算法所起的作用看,它們要比那些用算法監督員工的企業走得更遠。但從各方面的反饋看,似乎很少有人抱怨DAO用算法用得過度了。其中原因,固然是因為在DAO組織當中,很多都用了區塊鏈等技術,足以保證組織成員的數據和隱私,但更重要的是,DAO很好地調和了成員和組織之間的利益沖突。因此,如果在未來,人們可以通過類似DAO的組織創新,處理好以上這些矛盾,那么用算法來監控、調節人,或許也不會是一個不可接受的做法。

     

    《比較》研究部主管
    嗯别摸那里要尿了

      <track id="njnlj"></track>

      <track id="njnlj"><strike id="njnlj"><span id="njnlj"></span></strike></track>
      <pre id="njnlj"><strike id="njnlj"></strike></pre>
      <noframes id="njnlj">
      <pre id="njnlj"><strike id="njnlj"><ol id="njnlj"></ol></strike></pre>
      <pre id="njnlj"></pre>

      <track id="njnlj"><strike id="njnlj"></strike></track>
      <pre id="njnlj"></pre>
      <address id="njnlj"><pre id="njnlj"></pre></address>