寫在前面:AI時代,多數(shù)人下崗是必然
焦慮之余,在想AI時代需要什么樣的工作?
除去一小部分算法方面精英外
他們必然成為AI時代貴族,有權(quán)力的人
還有什么其他涌現(xiàn)出來新的性感工作呢?
我想你也曾經(jīng)考慮過,估計是不得解吧~
在查閱《MIT斯隆管理》《哈佛商業(yè)評論》 《經(jīng)濟學(xué)人》等
海外有識之士的思考,整理書寫小文一篇
以解密即將到來的AI新時代工作機會
新年里以鞭策你我,開個天窗~
人工智能正在取代人類許多工作,它又創(chuàng)造那些新的工作機會呢?
近來彌漫著人工智能將大面積取代人類工作崗位恐慌。例如美國《科學(xué)》雜志今年年初給出判斷是:到了2045年,全球50%的工作崗位會被AI的機器替代;而中國有高達77%的工作崗位被替代。也就是說,未來中國每4個工作中會有3個由AI來代替。這聽起來確實有點危言聳聽。霍金在《衛(wèi)報》的專欄中發(fā)文稱:“工廠自動化已經(jīng)讓眾多傳統(tǒng)制造業(yè)工人失業(yè),AI的興起會讓失業(yè)潮波及到中產(chǎn)階級,最后只給人類留下護理、創(chuàng)造和監(jiān)督工作。”“人工智能將快速爆發(fā),十年后50%的人類工作將被AI取代。”創(chuàng)新工場李開復(fù)在接受騰訊科技專訪時,拋出自己的判斷。
確實,在體力、智力及完全理性上,AI可以預(yù)期的是完勝人類,人必然退出這些“相對劣勢”的領(lǐng)域。那些工作環(huán)境惡劣,偏危險性的工作,例如礦井、野外等工作交給AI幫助人類規(guī)避風(fēng)險;那些簡單性、重復(fù)性、高體力工作被AI取代;那些簡單的智力勞動,如翻譯、編輯也將被AI取代;還有那些需要秉公執(zhí)法、過程不復(fù)雜的公務(wù)員工作,例如交通執(zhí)法等也將由AI代替??偨Y(jié)起來就是:在AI時代,我們將從工作崗位上解放出來。
這必將是:一個重新定義人,重新定義競爭力的時代
最近埃森哲研究超過1000家已經(jīng)積極擁抱AI、機器學(xué)習(xí)的大型公司后,發(fā)現(xiàn)一些全新的、獨特的工作崗位正在涌現(xiàn)。這些崗位并不是取代既有的工作,而是新穎的、需要新的技能和培訓(xùn)才能滿足的。排除人工智能社會常規(guī)意義上算法工程師、編碼人員等崗位,在人工驅(qū)動的商業(yè)和技術(shù)工作中,正涌現(xiàn)以下三種新的工作:人工智能訓(xùn)練師(Trainers)、人工智能解釋員(Explainers)、人工智能維持員(Sustainers)。而在這些角色中,人類將補充人工智能在運行過程中的認知工作,確保人工智能的工作既有效又可靠——呵護人工智能的公平性、透明性、可確定性。
在取代我們工作同時,AI又創(chuàng)造這些的工作崗位,為此筆者融合海外研究基礎(chǔ)上,加入自己的思考,讓我們一起尋找下AI時代新工作崗位的機會點和價值。
人工智能訓(xùn)練師(Trainers)
人工智能訓(xùn)練師,主要就是培訓(xùn)人工智能如何學(xué)習(xí)調(diào)整自己的行為和思考。這個領(lǐng)域的工作崗位是人工智能當(dāng)下標(biāo)配,人工智能訓(xùn)練師的初期缺口在100萬+,未來需求量將越來越大。
人工智能訓(xùn)練師教算法如何模擬人類的行為,另一方面幫助自然語言處理和語音互動程序減少錯誤。例如客戶服務(wù)聊天機器人需要接受培訓(xùn),以體驗感知人類溝通的復(fù)雜性和微妙之處。雅虎正試圖訓(xùn)練其語言處理系統(tǒng),以識別詞面表達以外另有所指的內(nèi)容。到目前為止,雅虎的工程師已經(jīng)開發(fā)出一種算法,通過訓(xùn)練和調(diào)整,可以精準(zhǔn)識別社交媒體和網(wǎng)站上的嘲諷高達80%以上。
人工智能訓(xùn)練師,訓(xùn)練的領(lǐng)域也是多種多樣,例如 “人工智能同理心訓(xùn)練師”的工作——主要教人工智能系統(tǒng)表現(xiàn)出鄰憫共情的能力。例如在AlphaGo在擊敗柯潔,李世石后可以擁抱對手,并真誠表達鼓勵對手。紐約的初創(chuàng)公司KemokoInc(麻省理工學(xué)院媒體實驗室背景)已經(jīng)開發(fā)出一種機器學(xué)習(xí)系統(tǒng),可以幫助蘋果的Siri和亞馬遜的Alexa等數(shù)字助手,以同情和個性化的方式解決人們的問題。
KemokoInc正積極訓(xùn)練Koko的算法,對那些因為他們的行李丟失而感到沮喪的人、那些購買產(chǎn)品存在瑕疵的人給予人性化的服務(wù)。人工智能訓(xùn)練師的目標(biāo)是讓系統(tǒng)能夠通過適當(dāng)?shù)睦斫猓?,甚至是幽默的方式來解決問題或困難。每當(dāng)Koko做出不恰當(dāng)?shù)姆磻?yīng)時,人工智能訓(xùn)練師就會幫助糾正這種行為——隨著時間的推移,來回的磨合,機器學(xué)習(xí)算法會更好地給予適合的反饋。
如果沒有人工智能同情心訓(xùn)練師,Alexa對用戶的焦慮只會做出沒有情感硬邦邦的回應(yīng),類似“我很抱歉聽到這個”或“要不你和朋友交談,那樣會有幫助”。通過正確的訓(xùn)練,Alexa變得更有溫度。當(dāng)一個人對它講:他擔(dān)心自己會在即將到來的期中考試中失敗。KOKO在訓(xùn)練后它會回復(fù):“考試對你我來說都是很有壓力的,但適當(dāng)?shù)膲毫梢詭椭覀兂晒?。它們可以讓我們的思考更為敏捷。這也是在告訴我們身體做好挑戰(zhàn)前準(zhǔn)備。把你的壓力轉(zhuǎn)化成獲勝的秘密武器吧。我也知道,這樣說起來容易做起來難。但我認為你會做得比你想象的好!加油吧~”
我的觀點,每個人都需要掌握人工智能訓(xùn)練師的部分技能,未來每個人都會配一個AI智能。正如訓(xùn)練自己家的小狗一樣。
阿里公開招募人工智能訓(xùn)練師
阿里巴巴公開發(fā)出“江湖征集令”招聘人工智能訓(xùn)練師,廣納賢才“調(diào)教”阿里小蜜、店小蜜等服務(wù)產(chǎn)品,在人工智能服務(wù)領(lǐng)域全面發(fā)力。招聘的人工智能訓(xùn)練師,主要任務(wù)就是“調(diào)教”阿里小蜜、店小蜜等人工智能服務(wù)產(chǎn)品——通過對海量客戶語料的聚類分析,對由機器人初步分類的行業(yè)知識進行校驗,并不斷優(yōu)化豐富產(chǎn)品知識庫,讓機器人更懂語言、更貼近業(yè)務(wù)場景、更智能
人工智能解釋員(Explainers)
人工智能解釋員主要是來填補技術(shù)專家或者機器和商業(yè)應(yīng)用之間認知的鴻溝。隨著人工智能系統(tǒng)的不透明性的增加,需要人工智能解釋員來和各相關(guān)人員進行溝通,正變得越來越重要。普通民眾對復(fù)雜的機器學(xué)習(xí)算法的“黑匣子”感到不安,尤其是當(dāng)人工智能所推薦的操作與傳統(tǒng)智慧相違背時。事實上,政府已經(jīng)在考慮這方面的規(guī)定。例如《歐盟新通用數(shù)據(jù)保護法規(guī)》將于2018年生效,它將有效地創(chuàng)造一種“解釋權(quán)”,允許消費者對任何基于算法的決策產(chǎn)生疑問和反對。
部署先進人工智能系統(tǒng)的公司需要一群能夠向非技術(shù)專業(yè)人士解釋復(fù)雜算法內(nèi)部工作原理的員工。例如,人工智能算法分析師需要對算法帶來的結(jié)果負責(zé)任。當(dāng)系統(tǒng)犯了一個錯誤,或者當(dāng)它的決定導(dǎo)致了意想不到的負面后果時,人工智能算法分析師將會對事件進行“剖析”,以了解行為背后的原因,從而使其得到糾正。某些類型的算法,比如決策樹,相對來說比較容易解釋,而類似機器學(xué)習(xí)機器人則更加復(fù)雜。然而,人工智能算法分析師需要有適當(dāng)?shù)挠?xùn)練和技能來進行詳細的剖析,并解釋結(jié)果。
人工智能的局部可理解的與模型無關(guān)的解釋技術(shù)(Local Interpretable Model-AgnosticExplanations: Lime)用于解釋機器學(xué)習(xí)分類器的基本原理和可信賴性。Lime不需要知曉實際使用的人工智能算法,只需對輸入的變量進行了細微的更改,并觀察是如何改變的。例如在確定最佳工作人選智能算法時,通過Lime可以識別導(dǎo)致篩選結(jié)論的變量(如教育和專業(yè)知識)以及對不利變量 (缺乏團隊協(xié)調(diào)經(jīng)驗)。人工智能解釋員需要說明為什么有人被雇傭或被提拔了,為什么市場營銷活動只針對特定消費者群等。
人工智能解釋員崗位扮演的是技術(shù)變遷過程中,組織認知溝通和統(tǒng)一的角色。有效的溝通以及協(xié)作將極大推動人工智能社會和組織的進程。
人工智能維持員(Sustainers)
人工智能維持員工作室確保人工智能系統(tǒng)按照給定設(shè)計運作,并在緊急情況下解決意料之外的后果。在埃森哲的研究中發(fā)現(xiàn)只有不到三分之一的公司對其人工智能系統(tǒng)的公平性和可審核性有很高的信心,只有不到一半的公司對人工智能的安全性有信心。這些統(tǒng)計數(shù)據(jù)表明人工智能技術(shù)的持續(xù)使用需要解決這些根本性問題,而這正是可持續(xù)發(fā)展的關(guān)鍵所在。
人工智能維持員工作中最重要的功能之一就是人工智能道德合規(guī)經(jīng)理。在這個角色中,人工智能道德合規(guī)經(jīng)理扮演一種監(jiān)督和監(jiān)察專員的角色,以維護人類價值觀和道德規(guī)范。例如,如果人工智能系統(tǒng)在某些行業(yè)或特定區(qū)域上存在歧視時,就需要進行干預(yù)??杉毼⒌疆?dāng)有人查詢“可愛的外婆”時,搜索算法不可只顯示白人女性的圖像這樣的點。人工智能道德合規(guī)經(jīng)理和算法分析師協(xié)作找出那些導(dǎo)致偏差的點,然后予以修復(fù)。
在未來,人工智能可能會變得更加自我管理。喬治亞理工學(xué)院計算學(xué)院的布倫特哈里森團隊已經(jīng)開發(fā)出名為“堂吉訶德”的人工智能原型,它可以通過閱讀簡單的故事來學(xué)習(xí)人類的倫理。這個人工智能可以通過人類互動的故事來“逆向工程”人類的價值觀。堂吉訶德已經(jīng)知道為什么偷竊是不對的,而追求效率是被鼓勵的。但是,即使有了這樣的創(chuàng)新,依然需要人類倫理合規(guī)管理人員來監(jiān)督以確保人工智能的正常運行。
人工智能訓(xùn)練師(Trainers)語言和意義訓(xùn)練師
Customer-language tone and meaning trainer培訓(xùn)人工智能理解超越字面意義,例如感知挖苦和譏諷的指令。智能機器交互師
Smart machine interaction
modeler依據(jù)人的行為來構(gòu)建機器行為模型。例如:人工智能系統(tǒng)可從一個會計的行為中學(xué)習(xí)如何自動將付款行為和發(fā)票匹配起來。世界觀訓(xùn)練師
Worldview
trainer訓(xùn)練人工智能系統(tǒng)擁有一個全球視角。以便在確定算法是否公平時能夠考慮各種文化的不同。人工智能解釋員(Explainers)情景設(shè)計師
Context
designer不同場景及元素下給出明智的決策,例如不同的情景、任務(wù)流程、個人情況、職業(yè)背景和文化元素等。透明分析師
Transparency analyst對人工智能算法使用過程中不同類型的透明度及其相應(yīng)影響進行分類,并維護信息檔案。人工智能實用性策略師 AI-
usefulness
strategist核定是否為特定程序來部署AI。人工智能維持員(Sustainers)機器倫理師
Automation ethicist評估人工智能的非經(jīng)濟影響,包括正面和負面機器經(jīng)濟師
Automation economist評估不良機器性能的經(jīng)濟成本機器關(guān)系經(jīng)理
Machine
relations
manager更大范圍推廣在業(yè)務(wù)中表現(xiàn)好的算法,對那些算法性能不佳的予以降級或壓制。
人工智能訓(xùn)練師(Trainers)、人工智能解釋員(Explainers)、人工智能維持員(Sustainers)等這些新工作是前所未有的,人工智能各個領(lǐng)域都需要大量注入新生力量。這一轉(zhuǎn)變將給社會、組織的發(fā)展帶來巨大的壓力。人工智能新崗位讓我們對傳統(tǒng)教育要求提出更多質(zhì)疑和可能性假設(shè)。
人工智能同理心訓(xùn)練師不需要大學(xué)文憑,只需擁有高中學(xué)歷和天生具有同理心的人就滿足崗位技能要求。在人工智能時代,各行各業(yè)行業(yè)類似的新工作崗位逐漸吸納下崗的的藍領(lǐng)群體。社會面臨如何對這些工人進行新崗位培訓(xùn)及組織等難題。
類似道德合規(guī)經(jīng)理——需要高學(xué)位和專業(yè)化的技能。我們也需要為新興的角色進行培訓(xùn),重新考慮人力資源的流程,以便更好地吸引、培訓(xùn)和留住這些專業(yè)人才。
與許多技術(shù)時代變遷一樣,人的因素往往比技術(shù)變遷更難。
講講你所預(yù)測的AI時代,哪些工作會性感?需求量大?需要什么樣的職業(yè)能力
唐興通/文創(chuàng)新戰(zhàn)略顧問、數(shù)字營銷專家.
不喧嘩、努力成為互聯(lián)網(wǎng)社會、商業(yè)思想發(fā)動機CC/編校