來源: http://www.iheima.com/zixun/2017/0108/160718.shtml

專訪傑瑞·卡普蘭:中國擁有比美國更大的潛力實踐人工智能
創新工場 創新工場

專訪傑瑞·卡普蘭:中國擁有比美國更大的潛力實踐人工智能

傑瑞·卡普蘭就人工智能與人類的關系、機器人產業的發展、人工智能引發的就業結構變化及應對辦法等問題暢談了自己的看法。

本文系創新工場(微信ID: chuangxin2009)授權i黑馬發布,作者王詠剛。

日前,著名計算機科學家、連續創業家、未來學家、《人工智能時代》等暢銷書作者傑瑞·卡普蘭接受了創新工場人工智能工程院副院長王詠剛的專訪。專訪中,傑瑞·卡普蘭就人工智能與人類的關系、機器人產業的發展、人工智能引發的就業結構變化及應對辦法、人工智能的國家和產業戰略、人工智能時代的教育和人才等問題暢談了自己的看法。

王詠剛:傑瑞你好。一些人擔心人工智能最終會演進成超級智能(Superintelligence)並威脅甚至控制人類。你會有同樣的擔心嗎?

傑瑞·卡普蘭:我認為,這件事發生的概率是非常小的。其實,我們現在做的只是在制造工具,以自動完成此前需要人類參與才能完成的工作任務。我想,之所以會有這樣的疑問,根本上是因為大眾習慣把人工智能人格化,這是問題的根源。

這件事對於專業人士和對於大眾的意義是不一樣的。例如,大眾總是擔心無人駕駛汽車可能傷及人類的生命。在一些極端的例子里,無人駕駛汽車確實需要做出決定,是要撞向左邊,傷及左邊的行人呢,還是要撞向右邊,傷及右邊的行人。但無人駕駛汽車只是一套機器系統,它們並不會真正做出決策。它們只是根據對環境的感知,按照某種特定的原則和設計做出反應,而我們人類對於整套系統的感知和反饋模式擁有完全的控制權。如果它們做了什麽不符合我們的社會準則的事情,那一定是因為我們人類在設計它們時犯了錯誤。

我們所面對的,只不過是一系列工程設計上的問題。我們必須確保我們設計制造的產品和服務符合我們的願望和預期。你知道,這件事與橋梁工程師們使用一整套質量保障方案來確保他們建造的橋梁不會坍塌並沒有什麽兩樣。我們有許多工程學上的原則,來指導我們如何測試一個系統,什麽樣的系統是合格的,什麽樣的系統是足夠安全的,等等。在人工智能領域,我們同樣需要這樣的技術,因為人工智能十分強大,具有潛在的危險性。但這並不是因為智能機器會像人類一樣思考。只是因為它們十分強大,我們必須小心使用它們。

“智能”經歷了相當長時期的演進,從猿猴的智能,到人類的智能,再到人類制造的人工智能技術和智能機器。那些預測超級智能的人是按照這樣一種演進趨勢來思考問題的:

3c476dbc962a44c540704b77f8bffeb6

(圖1: 關於智能演進的線性思考)

但這種線性結構是有問題的,因為我們並沒有一種簡單的方式來對智能進行度量。這和測量體重或鞋子尺碼很不一樣。智能是一個非常定性的概念,它反映的是某個人成功解決某種特定問題的能力。例如,人們總是會問,如果人工智能的智商達到200,那會發生什麽呀?可是,什麽是人工智能的智商?實際上,智商在這里是一個被極度濫用了的概念。心理學家使用一種叫發展能力(Developmental competence)的概念來評估人類。他們測試一個人解決算術、邏輯等問題的水平,然後將測試所得的分數除以這個人的年齡——這是智商的含義。如果某人解決此類特定問題的能力超出他同齡人的平均水平,我們就說他的智商高。但是,該如何定義一部機器的智商呢?如何定義一部機器的年齡?機器可以用比人類快一百萬倍的速度解決算術問題,那麽,這些機器的智商是多少?這種說法其實並沒有什麽實際意義。

所以,問題首先在於,對智能的定義是非常主觀的,這依賴於每個人自己的視角。這一點非常像我們對美的定義。你可以說某些人比其他人長得美,或者說一個人比另一些人更聰明,但希望把美或把智商的定義客觀化、量化的想法是錯誤的。其次,關於智能的度量並不是線性的,而是一種多維度的度量。如果你用算術能力來評估,那機器已經非常聰明了。但你如何將機器納入一個多維度的度量體系?讓一部機器變得更聰明,這句話到底意味著什麽?

一個關於機器智能的更好的思維方式是:我們擁有了新的科技手段,我們可以將這些新技術應用於新的問題領域。因為機器學習技術的進步,我們現在正處於最好的時期。“當你擁有一把錘子,所有東西看起來都像釘子。”今天在美國,所有人都在嘗試,看看我們該如何應用人工智能技術,可以應用得多麽深入。我們正在解決自然語言處理問題、翻譯問題、機器視覺問題、機器人問題,等等。有些地方,人工智能工作得很好,有些地方,他們還難以滿足實際需要。驅動這種進步的主要力量並不是智能本身,而是大數據,以及使用更快、更便宜、更簡單的方式訪問大數據的能力。

我經歷過許多次技術革命,今天人們對於機器學習的興趣與曾經的每一次新技術革命並沒有本質的不同。例如,機器學習和當年關系型數據庫的發展非常類似。我們當年使用基於層次模型和網絡模型的數據庫,關系型數據庫的出現改變了一切。借助關系型數據庫,任何人都可以將數據庫當成一個方便的工具,而不需要雇傭許多專業的工程師。人工智能就是這樣一個可以為我們帶來巨大改變的便捷工具,就像關系型數據庫在幾十年前所做的一樣。

王詠剛:谷歌的AlphaGo和軟銀的Pepper機器人讓普通大眾覺得機器正變得越來越智能。這些新技術是不是正在誤導大眾,讓人們相信機器是有意識的?

傑瑞·卡普蘭:人工智能並不是一種單一的技術,它是一組不同技術的統稱。而且,它隨著時間在不斷變化。今天,這一技術領域和20年前很不一樣。公眾之所以覺得機器變得越來越智能,那是因為機器可以做新的事情。但今天AlphaGo贏得圍棋比賽的技術和20年前IBM深藍贏得國際象棋比賽的技術有很大不同。AlphaGo和深藍背後的技術是不一樣的。AlphaGo的程序是建立在大數據基礎上的新算法。因為數據極大豐富,我們可以從數據中學習經驗,讓機器發現人類可感知的模式。這是基於模式的算法,和算術問題很不一樣。公眾並不關心這些技術細節。他們只會說,現在機器會下象棋了,現在機器會駕駛汽車了,現在機器又會下圍棋了……天啊,機器變得越來越聰明了!

作為工程師,我們知道AlphaGo可以做到很多事情,但我們不會期望AlphaGo有人類意識。我們不知道讓一臺機器有意識、或有自由意願究竟意味著什麽。目前的科學體系並沒有提供一個理解這些問題的基本模型。你必須從以下兩種解釋中選擇一種:要麽,所有有關意識的人類經驗並不可靠,比如,我們認為我們了解意識,其實並不了解;要麽,我們缺少理解人類意識到底是什麽的基本工具。

軟銀的Pepper機器人擁有和人一樣的臉。它看上去就像個小孩子,你可以跟它說話。但那只是魔術表演而已——它並沒有思想。人工智能技術只是解決了以前只有人類才可以做的某些問題,但這並不代表著人工智能程序有思想,或者它們以人類標準看是智能的。那些讓大眾誤以為機器與人類相仿的應用,其實只擁有娛樂價值。它們只是一場魔術表演,無法真正取代人類。

王詠剛:你認為類人機器人會是機器人工業的一個好的發展方向嗎?

傑瑞·卡普蘭:我不能說它是好的,或者它是壞的。這不是一個非黑即白的問題。公眾認為機器人長得像人一樣,可你我知道機器人不過是機器,這些機器通常長得都不像人類。機器人有傳感器,有驅動裝置,程序使用傳感器感知環境並使用驅動裝置驅使機器人做出反應。我們並不是在制造人。

有些人因為某些商業理由而制造擁有人類外貌的機器人。類人機器人擁有和人相似的臉和笑容,例如軟銀的Pepper機器人,這些機器人在娛樂業或某些特定領域還是有商業價值的。

如果我們希望制造能夠在人類活動的空間里工作的機器人,那麽,為了讓機器人在人所處的環境里工作,賦予機器人與人體相似的尺寸,或某種類似人體的物理機能,這也非常合理。

你可能知道美國國防高等研究計劃署(DARPA)的機器人競賽。在DARPA組織的這項比賽中,機器人制造團隊讓機器人完成某種特定任務來相互競爭。例如,機器人爬樓梯、開門或是使用電鉆。為什麽DARPA要組織這樣的競賽?想象一下日本福島2011年的核電站事故。那次事故中,人們遇到的一個問題是,人類難以進入那些被輻射籠罩的區域。我們必須制造可以進入危險區域,並完成諸如關閉一扇門或關掉一個閥門等簡單任務的機器人。所以,這是DARPA組織機器人競賽的原因。這是我們制造和使用機器人的最好理由。這些機器人沒有必要長得像人,他們只是能夠像人一樣完成任務。

所以,類人機器人是那種可以用類似方式完成人類任務的機器人。類人機器人也許像人類,也許不那麽像人類。我們有許多理由來設計和制造類人機器人。

王詠剛:人工智能將在不遠的將來造成人類多大範圍上的失業?你如何估計這個百分比?由此引發的失業會成為一個嚴重的社會問題嗎?

傑瑞·卡普蘭:不是所有工作都會被人工智能取代。相反,很多工作都會轉變為新的工作機會。一個好的例子是銀行的櫃員。過去,大多數銀行櫃員總是在做最基本的銀行交易。顯然,ATM自助服務終端的使用,已經代替了一定數量的銀行櫃員的傳統工作。但有趣的是,銀行櫃員的雇員數量不降反升,因為櫃員的工作轉變了。我們仍然管他們叫銀行櫃員,但他們的工作描述與20年前相比已經有了很大不同。大多數情況下,銀行櫃員不是坐在那兒等著幫你取錢存錢。今天的銀行櫃員已經成為了銀行各類業務的銷售員。你可以走進一家銀行的支行,跟櫃員就銀行業務展開交談。那些銀行櫃員可以為你提供所有幫助。這項工作已經不同了,但職位的名稱還沒有改變。技術讓銀行變得更加高效,更易擴展。銀行可以開更多的支行,雇傭更多的員工,在新的領域投資並制造新的工作機會。

最近,一份來自詹姆斯·貝森的報告(How computer automationaffects occupations: Technology, jobs and skills: http://voxeu.org/article/how-computer-automation-affects-occupations)顯示了在過去幾十年間全職銀行櫃員的數量增長趨勢:

84c8e9b33bb353889606408f5346b28f

(圖2: 美國全職銀行櫃員與ATM機數量的變化關系)

人工智能會取代哪些工作呢?人工智能可能取代的工作大多擁有清晰的評估標準,工作業績可以客觀地衡量。人工智能無法取代的工作通常需要人類做出決策。例如,風險投資人仍然需要面對面和創業者會談,以確定投資意向。即便是高級教育背景的人,也會花很多時間來做重複性的工作,而這些重複性的工作最容易被自動化。這可以讓那些高級人才將更多的時間用於那些最能發揮他們的技能特長,最不容易被自動化的工作部分。對於某些工作,全部工作內容都可以被自動化,所以不再需要人類員工。例如,放射科醫師的工作就可以全部被自動化。但對另一些工作,比如普通醫生,你沒法將他們全部替換,因為你沒辦法徹底取消面對面的病情診斷。

人工智能造成的失業並不像某些人想象的那麽嚴重。例如,卡車司機可以完全被無人駕駛系統取代。但計算一下,目前美國約有150萬名卡車司機,假設這些卡車司機會在15年內全部被取代,那麽,15年內失去150萬個工作機會,這意味著我們平均每月要安排大約8300人再就業。這並不是一個不可能完成的任務。

與卡車司機不同,許多其他工作會轉變為新的工作。例如,醫生就不會消失。我們將會擁有自動輔助診斷系統,但這些系統只是讓醫生的工作更高效,從而讓醫生有更多時間來完成科研任務,或者接診更多的病人。今天,很多人因為醫療費用昂貴而不去看醫生。當人工智能被廣泛應用後,醫生可以更高效地接診病人。醫生的數量可能會下降,但人們可以更容易也更頻繁地去看醫生。

王詠剛:在你的《人工智能時代》一書中,你提出了解決失業問題的一個方案——“工作抵押(Job mortgage)”。這聽上去像是一種由政府、雇主和教育系統聯合提供保障的再教育機制。但考慮到在人工智能時代里,由於簡單和重複性的工作更容易被人工智能取代,人類教育可能因此比以往複雜得多。人們學習一種新技能可能會變得非常困難。鑒於此,“工作抵押”的再教育機制真的可行嗎?

傑瑞·卡普蘭:好吧,我想你的問題中包含了一種隱藏的假設:需要低級別技能和更少訓練的工作更容易被自動化,而需要高級別技能和更多訓練的工作則難於被自動化。這個假設也許不像你想象得那樣正確。

讓我來給你一個例子:放射科醫師。放射科醫師是醫生的一種,他們需要許多年的培訓來學習技能,但他們的工作完全可以被徹底自動化。這是一個高等教育程度的工作也可以被自動化的好例子。駕駛卡車可能是一種低級別的工作,也許需要一些訓練,但它顯然不是一種高級技能。我的觀點是,自動化將影響所有技能級別的、各行各業的人。當我們擔心我們該如何處置那些低級別工作者的時候,我們一樣需要擔心那些高級別工作者。

即便如此,仍然存在很多不需要大量訓練,但也很難被自動化的工作。從事這些工作的人,是不用擔心失業問題的。以人類角色出現這件事,對這些工作非常重要。例如,看看那些體育教練,我們很難將這類工作自動化。所以,也許我們可以將失業的卡車司機重新培訓成體育教練,那些能夠駕駛卡車的人也許會發現,體育教練的技能是比較容易掌握的。

當我們談論再教育的時候,你的問題包含了一個我並不認同的假定。我可以給你另一個例子。通常,按摩服務在今天的美國是一種奢侈服務。你必須擁有足夠的收入,才能負擔得起按摩服務的昂貴價格。按摩師的收入很高。按摩師需要的工作技能是什麽?這種工作技能並不需要特別高級的訓練。如果人們有了足夠的錢,更多的人就會選擇接受按摩服務。這會讓按摩師的需求大增。未來,因為可共享的無人駕駛汽車的普及,你可能不再需要擁有你自己的汽車了。在美國,這意味著平均水平的個人可以每年節省大約1萬美元的汽車保有費用。一些人就可以將這些省下來的錢花在按摩等較奢侈的服務上。然後,我們就需要更多的按摩師了。

有關人工智能只會取代低級別工作的假定是不正確的。許多需要人際接觸的工作都很難被取代,例如前臺接待員。你當然可以用一個自動化系統來取代他們,但你肯定不希望看到你的賓館或你的公司前臺,只有機器來接待訪客。你肯定需要在前臺安排人類職員,因為你需要他們在那里解決一些很難被高級規範化的系統預測的問題。

所以,我有個很有趣的建議——在你的工作或生活中,經常看一看,想一想,周圍的人都在做什麽?他們的工作是否有可能被自動化?通常你會得到的結論是,他們的一部分工作可以被自動化,但另一部分不行。這意味著,他們的工作會轉變為新的工作。這種情況隨處可見。讓我給你另一個例子:調酒師。調酒師的工作當然可以被自動化。你可以走到一臺自動售貨機前,用自助的方式買一杯金湯力。但調酒師還可以參與我們的社交活動。你希望看到他們。你希望和他們聊天。所以,調酒師的職業不會消失。那些失業的卡車司機也可以被訓練成調酒師。

王詠剛:2016年10月,美國白宮發布了《國家人工智能研究與發展戰略規劃》。這是否說明,人工智能已經成為了美國國家戰略的一部分?你希望政府在人工智能領域做得更多還是做得更少?

傑瑞·卡普蘭:在美國,白宮能做一些事情,但他們缺乏真正的控制力。例如,如果他們說,我們要讓洛杉磯的空氣變得更清潔,人們肯定會質疑他們是否具備這種能力,是否要花很長的時間才能達到目的。白宮能做的事情非常有限。他們必須勸說工業界,勸說人們去做這件事。中國的公眾看到美國公布了什麽人工智能國家戰略,也許會很焦慮。中國公眾會想,我們也需要在這個領域做些什麽,因為美國政府認為這很重要。但是,這種報告和政府聲明在美國和中國的意義截然不同。中國政府擁有比美國政府強大得多的能力來將計劃付諸行動。

此前也發生過類似的事情。許多年以前,美國啟動了一個叫做“第五代計算機”的項目。日本政府也認為他們需要做類似的事情。政府認為他們可以主持建造所謂的第五代計算機——擁有大量CPU單元以提高性能的計算機。美國政府一度在大力推動計劃的實施,但這個計劃從未變成現實。日本政府所做的類似努力讓日本經濟倒退了好幾年,因為他們投入了數十億美元卻收效甚微。

所以,當我們看到美國政府的類似計劃時,我們必須持一種懷疑的態度。美國所謂的政策,很多時候不過是一群擁有美好願望的人召開了一次政府會議並發布了一些相關文件。這些東西通常並不具有約束力。更進一步,美國政府所發布的內容也不一定就是正確可行的。對於美國可行的規劃,未必可以複制到中國。在美國,也許還需要20到30年,我們才能看到無人駕駛汽車的大規模應用。但在中國,政府可以用更大的力度投資無人駕駛產業,可以在技術的應用上選擇更靈活的政策,更早開始在試點城市測試無人駕駛技術。當然,因為中國在執行上更有效率,相關政策就更需要縝密思考後再付諸實踐。但中國不需要複制美國政府的政策規劃。

在美國,政府曾經在關系型數據庫上制定過類似的戰略規劃。這在當年意味著什麽?美國政府可以說,所有政府部門都必須更新他們的數據庫系統,以使用關系型數據庫。這是可以理解的,是一個好主意。但作為國家戰略,政府沒有理由也沒有能力強制整個國家都使用關系型數據庫。你可以對政府內部的信息技術部門做出建議,但對於私有企業,你只要讓他們做他們擅長做的事情就好了。如果這是一種好的技術,私有企業自然會采用它。

在美國,政府很難在沒有直接經濟效益的領域投入大筆的資金。例如,2009年,奧巴馬總統啟動了一個投資太陽能的項目。政府決定去做投資,我認為這是一件好事情。政府在不同公司投入了資金。在這些公司里,有一家叫Solyndra的公司拿到了5億美金的投資,其中大多數來自政府。這家公司在2011年倒閉了。當時,政府和民主黨飽受批評。奧巴馬總統的聲譽遭受嚴重打擊,因為他推動設立了這個項目。能源工業在這些公司身上投入巨資,卻因此而損失了數億美元。

王詠剛:OpenAI宣稱他們的使命是制造安全的人工智能,以保證人工智能不會威脅人類。你認為這世界上存在好的人工智能和壞的人工智能嗎?你會擔心谷歌等掌握了最強大的人工智能技術的業界巨頭做壞事嗎?

傑瑞·卡普蘭:這和公眾慣於看到問題中危險的一面有關。我們必須非常小心。回到關系型數據庫的例子,我們要確保關系型數據庫是有用的,是好的——但我們該如何做到這一點?這意味著什麽?關系型數據庫只是一種基本的技術。技術既不是好的,也不是壞的。技術既可以被用於好的目的,也可以被用於壞的目的。

你和我都可以在家里設計出一種非常危險的武器。我們都有足夠的知識來制造出非常具有傷害力的裝置。類似的,我們可以讓任何技術具有傷害力。人工智能可能很危險。想象一輛被程序控制的車輛,行駛過程中,程序可能驅使車輛殺死路人以挽救司機的生命。但是,與這種危險的人工智能技術完全相同的技術也可以被用來拯救生命、保全汽車。

技術在不同的場景中有什麽不同?當我們說我們可以開發好的人工智能技術時,你覺得這句話意味著什麽?這句話的真正含義是我們要盡力鼓勵人們將技術用於好的目的。這非常不同。你不能說,這個工具是為幹壞事兒設計的,那個工具是為幹好事兒設計的,這完全講不通,它們是完全一樣的技術。公眾通常將人工智能看成一個黑盒子。但作為工程師,你我就在這盒子里面。好的人工智能與壞的人工智能分別意味著什麽?你能測量出某個黑盒子是好的,某個黑盒子是壞的?那我們還不如假定某種人工智能技術,例如卷積神經網絡是危險的——顯然,我們不能這樣假定。

OpanAI的創始人,伊隆·馬斯克和山姆·阿爾特曼等人,他們要做什麽?他們從斯坦福大學雇了許多人。他們所能做的也許是制造一個開放的工具包。他們可以為那些缺乏經濟回報的領域制造應用系統,例如減少環境汙染的系統。這些都是好的事情。我支持他們去做這些事。

另一個相關的例子是Uber。我特別驚訝地發現,Uber在舊金山做的事情被大加贊賞,可Uber在倫敦做的同樣的事情卻飽受批評。Uber在倫敦造成了許多人失業。倫敦有非常發達的出租系統。倫敦人管傳統的出租車叫“黑色出租”。這些出租車的司機是一個有著悠久歷史的社會職業,他們需要對街道非常熟悉,以通過上崗測試。Uber在倫敦破壞了這樣的傳統,因為任何人只要有一輛車就可以成為Uber司機。在這件事上,Uber低估了英國人對於傳統職業的重視。倫敦的許多人痛恨Uber,他們認為Uber是對英國社會的破壞。在舊金山,每個人都覺得Uber棒極了。人們贊揚Uber,幾乎沒有什麽負面報道。這是同一件事在不同城市得到的不同評價。所以,你很難說某項技術是好的,或者是壞的。

至於谷歌,它擁有大量的數據和極其強大的深度計算集群。這件事是好還是壞?如果你在谷歌工作,你會覺得這真是太棒了。如果你不在谷歌工作,問題的本質就會變成,大數據和強大的計算能力是否給谷歌提供了我們不希望看到的某種可以對社會造成重大影響的決策能力?我可以給你另一個例子。你和我可能說,無人駕駛汽車顯然是好的技術。我當然相信這一判斷。但也有相當一部分人認為,無人駕駛汽車在道路上該如何工作,這是一個道德或倫理問題,將這個問題的決定權賦予研發無人駕駛技術的公司,其實是在將重要的道德或倫理決策授權給天生為了盈利的私有機構。這是問題的根源。在矽谷,Uber或谷歌等公司的態度是,我們絕不做壞事。但這並非被全世界知悉和認同。矽谷以外的人們也許會因為這些公司掌握了技術的決策權而非常擔心。谷歌因其大數據和大計算能力而擁有極其強大的能量。他們會如何使用這種能量?你可能不希望看到這種能量只被某幾個決策者控制。

王詠剛:你認為現有的教育系統是否適合即將到來的人工智能時代?

傑瑞·卡普蘭:首先,在美國,用於職業訓練的教育系統被稱作職業培訓。職業培訓使人們獲取工作技能並有機會被雇傭。首要問題是,這樣的教育系統的設計初衷,並不能真的為幫助人們獲得在勞動力市場上有用的工作技能而服務。為什麽?因為這與公共財政有很大關系。美國政府並沒有確保學生學到雇主所需的工作技能的直接動機。這里面沒有特定的因果關系。我想,要解決這個問題非常簡單。你只需要將這些職業培訓的財政投資私有化,並遵循以下的原則:如果學生學習到的技能無用,學校就賺不到錢。其次,在某些行業里,當一個工作的技能發生轉變時該怎麽辦?這里存在繼續教育的需求,我們需要一個能夠支持繼續教育的系統。例如,一個允許工程師學習新技能的系統。這一點同樣非常重要。

王詠剛:許多人工智能創業公司雇傭了資深的人工智能研究員,來出任公司的首席科學家。另一方面,資深的人工智能研究員通常都可以從谷歌、Facebook等大公司拿到豐厚的薪酬,他們很難做出加盟一家創業公司的決定。你認為人工智能創業公司有必要雇傭資深的科學家嗎?

在我看來,做科學研究和開發商業產品是不同的技能組合。有一個斯坦福大學畢業的工程師,他在斯坦福大學獲得了碩士學位。這是一個非常有價值的學位,可以借此獲得很好的工作。他的導師鼓勵他繼續攻讀博士學位。他也照做了。他的假定是,擁有博士學位會比擁有碩士學位更有價值、更容易找到高薪的工作。這是不對的。為什麽?你在碩士學位里獲取的是你需要進入公司開發產品所需的工程技能。而大學里的博士學位屬於研究角色,他們並不一定擁有開發科技產品的能力。這是兩件非常不同的事情。對於開發產品來說,你需要市場分析技能,需要理解你所用的技術的技能。你擁有一個博士學位,這並不一定意味著你是一個比碩士生更好的程序員。如果你有碩士學位,這對於研發產品來說可能要更好。如果你需要在算法層面工作,你可能才需要博士學位。

人們說,目前的深度學習框架仍然需要科學家來調整參數。但我想,懂得編程的人一樣可以勝任調整參數的工作。問題在於,使用一個會調參數的研究員或科學家時,他們通常缺乏工程經驗。他們是被訓練來做研究的人。我們需要的應該是更適合研發產品的人。

我會不會雇傭一個機器視覺專家,來設計最先進的視覺算法呢?不會。我需要的是能夠理解和使用算法的人。例如,我們可以安裝一部攝像機,來從視覺上區分樹枝和小孩子的腿。這種需求並不需要重新設計視覺算法。這是不同的工作技能。雇傭科學家來做工程師的工作,在大多數情況下會適得其反。

我的建議是,對於雇傭科學家要非常謹慎。人們說,“看這個人,他有卡內基梅隆的博士學位,他一定比另一個從喬治華盛頓大學畢業的碩士生強。”這麽說的人會花冤枉錢的,因為博士生並不需要具備工程經驗。我知道在斯坦福大學,許多博士生畢業時的工程技能都少得可憐,因為他們接受的並不是工程方面的訓練。這些博士生被訓練成視覺研究領域的先進算法專家。他們並沒有接受如何在預算範圍內按時發布產品、如何解決特定的工程問題等方面的訓練,他們更沒有接受如何理解客戶的需求並確保產品符合客戶需求的訓練,這些實際上都是市場方面的技能。

人才市場上有足夠多的擁有和理解工程技能的候選人。如果是我,我會質疑雇傭科學家的做法。不要因為某些人擁有頂尖大學的博士學位,就假定這些人特別適合做某件工作。我會主要根據候選人所擁有的技能來考慮問題。正如不要假定一個擅長編程的人也善於管理團隊。這是不同的技能。類似的事情我見到過很多。你必須雇傭最合適的人。

人工智能 人才
贊(...)
文章評論
匿名用戶
發布