佐治亞理工學院交互式計算主任Ayanna Howard
作為 AI 工程師,我們擁有設(shè)計和搭建基于技術(shù)的解決方案的工具。但許多 AI 開發(fā)者不認為解決潛在的負面影響也是自己的責任,因此我們也看到醫(yī)療服務(wù)、教育機會等方面的不平等現(xiàn)象。
在新的一年,我希望 AI 社區(qū)可以就如何構(gòu)建有道德的 AI 達成廣泛共識。
我們需要在基于其部署的背景來考慮我們的工作,并對可能造成的潛在危害負責,就像負責識別和修復(fù)代碼中的錯誤一樣。
這聽起來像一場巨變,但它可能很快發(fā)生。就像新冠大流行期間,很多公司都實施了以前他們認為不可能的在家辦公制度。技術(shù)的一個特征是,當頭部玩家改變時,其他人就會跟隨,以免失去競爭優(yōu)勢。只需要幾個領(lǐng)導者設(shè)定了新的方向,整個領(lǐng)域也會隨之變化。
斯坦福大學教授李飛飛:激活 AI 生態(tài)系統(tǒng),扭轉(zhuǎn)頂級人才流向業(yè)界的趨勢
美國國家工程院院士、斯坦福大學教授、人工智能著名學者李飛飛
我希望 2021 年,美國政府能夠堅定承諾支持 AI 創(chuàng)新。
美國之所以在科技領(lǐng)域一直處于領(lǐng)先地位,是因為其創(chuàng)新生態(tài)系統(tǒng)充分利用了來自學界、政府和產(chǎn)業(yè)界的貢獻。但是,人工智能的出現(xiàn)使之向業(yè)界傾斜,這很大程度上是因為用于 AI 研發(fā)的三種最重要資源——算力、數(shù)據(jù)和人才,集中到了少數(shù)公司。例如,根據(jù) AI21 Labs 論文《THE COST OF TRAINING NLP MODELS》中的數(shù)據(jù),為了訓練大規(guī)模語言模型 GPT-3,OpenAI 聯(lián)合微軟可能花費了價值 500 萬至 1000 萬美元的資源。沒有一所美國大學可以進行這種規(guī)模的計算。
大數(shù)據(jù)對推動人工智能的發(fā)展同樣至關(guān)重要。但如今,最豐富的數(shù)據(jù)庫卻掌握在大型公司的手中。缺乏足夠的算力和數(shù)據(jù)阻礙了學界研究者的科研,并加速了頂級 AI 人才從學界流向私有企業(yè)。
2020 年,美國政府為大學院校提供了一些新的支持,但這遠遠不夠。在我與哲學家 John Etchemendy 共同負責的斯坦福以人為本人工智能研究院(HAI),我們提出了一項國家研究云(National Research Cloud)計劃。該計劃將在未來十年每年投入 10 億至 100 億資金,為學界、政府和業(yè)界的合作注入新的活力。這項計劃將為學界研究者提供前沿研究所需的算力和數(shù)據(jù),反過來也將吸引和留住新的教職人員和學生,有可能扭轉(zhuǎn)學界研究者流向業(yè)界的局面。
National Research Cloud 的進展令人鼓舞,包括美國國家科學基金會和美國國立衛(wèi)生研究院在內(nèi)的多個機構(gòu)也發(fā)出了有關(guān)人工智能項目的呼吁,為相關(guān)提案提供支持。
AI 是一種工具,而且是一種功能強大的工具。但每個工具都是一把雙刃劍,其使用方式不可避免地反映出設(shè)計者、開發(fā)者和實施者的價值觀。確保 AI 安全、公平、保護個人隱私并造福全人類,仍然存在著許多挑戰(zhàn)。而激活 AI 研究生態(tài)系統(tǒng)是解決這些問題的重要部分。
Matthew Mattina:希望 TinyML 等微型 ML 技術(shù)和小型設(shè)備發(fā)揮更大作用
Arm 機器學習研究實驗室的杰出工程師和高級總監(jiān) Matthew Mattina
以標準 2 號鉛筆的筆尖為例,想象一下在筆尖區(qū)域每秒執(zhí)行萬億次以上的乘法運算。這項任務(wù)可以使用現(xiàn)在的 7nm 半導體技術(shù)來完成。在小型、低成本的電池供電設(shè)備上結(jié)合這種強大的計算能力和深度神經(jīng)網(wǎng)絡(luò)將有助于解決從 Covid-19 到阿爾茨海默病的種種挑戰(zhàn)。
AlphaGo、Alexa、GPT-3 和 AlphaFold 等杰出系統(tǒng)背后的神經(jīng)網(wǎng)絡(luò)需要這種計算能力才能充分發(fā)揮魔力。這些系統(tǒng)通常運行在數(shù)據(jù)中心服務(wù)器、GPU 和大規(guī)模電源上,但很快它們將可以在耗電量比節(jié)日燈串上單個 LED 燈泡還要少的設(shè)備上運行。
一種叫作 TinyML 的機器學習技術(shù)正將這些大型的、側(cè)重數(shù)學的神經(jīng)網(wǎng)絡(luò)應(yīng)用在傳感器、可穿戴設(shè)備和手機上。神經(jīng)網(wǎng)絡(luò)嚴重依賴乘法,而新興硬件使用低精度數(shù)字(8 位或更少)來執(zhí)行乘法運算。與通常的 32 位單精度浮點乘法器相比,芯片設(shè)計者可以在更小的面積和功率范圍內(nèi)構(gòu)建更多的乘法器。研究表明,在很多現(xiàn)實案例中,在神經(jīng)網(wǎng)絡(luò)中使用低精度數(shù)字幾乎不會對準確率產(chǎn)生影響。這種方法可以在最需要的地方提供超高效的神經(jīng)網(wǎng)絡(luò)推斷。
舉例而言,在應(yīng)對 Covid-19 大流行的過程中,檢測和確認感染者成為主要障礙。最近的研究表明,基于數(shù)千個「強制咳嗽」音頻片段訓練的神經(jīng)網(wǎng)絡(luò)集合或許能夠檢測出咳嗽者是否感染 Covid-19,即使他 / 她并沒有出現(xiàn)癥狀。該案例中使用的神經(jīng)網(wǎng)絡(luò)具有非常高的計算成本,需要每秒數(shù)萬億次的乘法運算。而 TinyML 可以運行此類咳嗽分析神經(jīng)網(wǎng)絡(luò)。
對于即將來臨的 2021 年,我希望由小型設(shè)備上運行的大規(guī)模神經(jīng)網(wǎng)絡(luò)賦能的復(fù)雜醫(yī)療應(yīng)用可以開創(chuàng)一個新的個性化醫(yī)療時代,從而改善數(shù)十億人的生活。
沈向洋博士:期待 AI 幫助人類進行藝術(shù)創(chuàng)作
美國工程院外籍院士、小冰公司董事長、清華大學雙聘教授沈向洋
2021 年,我希望 AI 社區(qū)創(chuàng)造更多工具,幫助人類解放創(chuàng)造力。AI 將幫助全球各地的人們以其獨特的方式溝通、表達情緒。
我們已經(jīng)創(chuàng)造出擅長邏輯任務(wù)的機器,它們能執(zhí)行大規(guī)模計算,且速度遠超人類。這一成就在近期月球探測任務(wù)中得到了極大體現(xiàn)。在日常生活中,我們使用 Microsoft Word 和 Excel 等工具來提升生產(chǎn)效率。但是,在另一些任務(wù)中人類仍占絕對優(yōu)勢,尤其是藝術(shù)領(lǐng)域。
人類左腦負責邏輯,右腦負責創(chuàng)造性和想象力,二者相互補充。創(chuàng)造性的右腦為許多日?;狱c燃火花,我們使用語言來彼此交流,表達抽象的概念和情緒。我們同樣用藝術(shù)的手法表達自己,創(chuàng)造出音樂、畫作、舞蹈和設(shè)計。
AI 領(lǐng)域的近期進展,尤其是生成對抗網(wǎng)絡(luò)和語言模型(如 GPT-3)等深度學習技術(shù),使得從頭開始合成逼真圖像和合理文本成為可能。小冰聊天機器人已經(jīng)在作詩、繪畫和音樂方面展現(xiàn)出了類似人類的性能。例如小冰幫助微信用戶寫詩,一周內(nèi)作詩數(shù)量超過中國歷史上所有的詩作!
繪畫、音樂、詩或舞蹈等藝術(shù)領(lǐng)域的頂尖人士必須經(jīng)過多年的訓練。有句話說,要想成為某個領(lǐng)域的專家,需要經(jīng)過一萬小時的錘煉。類似小冰的工具可以大幅降低時間投入,使每個人都能獲得更復(fù)雜、更有創(chuàng)造力和想象力的表達方式。
我期望,2021 年能看到更多 AI 創(chuàng)造工具,幫助人們表達自己的藝術(shù)想法和靈感。AI 已經(jīng)證明它能夠幫助提升生產(chǎn)效率,那么現(xiàn)在讓我們期待 AI 幫助人類解放創(chuàng)造力吧。
OpenAI 聯(lián)合創(chuàng)始人 Ilya Sutskever:期待語言和視覺的融合
OpenAI聯(lián)合創(chuàng)始人、首席科學家Ilya Sutskever
過去一年,通用模型首次產(chǎn)生了經(jīng)濟價值。GPT-3 的出世表明大型語言模型具備令人驚嘆的語言能力,并且能夠執(zhí)行大量有用的任務(wù)。我期望接下來誕生的模型能夠更強,2021 年的最佳模型或?qū)⒆?2020 年的最佳模型相形遜色,同時也將解鎖今天難以想象的許多應(yīng)用。
2021 年,語言模型將開始了解視覺世界。文本本身可以表達關(guān)于世界的大量信息,但它并不完備,因為我們也生活在視覺世界中。下一代 AI 模型將能夠編輯文本輸入并生成圖像,我們也希望它們能夠借由其見過的圖像而更好地理解文本。
聯(lián)合處理文本和圖像的能力將使模型變得更聰明。人類接觸的不僅是閱讀到的內(nèi)容,還有看到和聽到的內(nèi)容。如果模型可以處理類似的數(shù)據(jù),那么它們就能以類似人類的方式學習概念。這個靈感尚未得到證實,我希望 2021 年能夠看到這方面的進展。
模型更加聰明的同時,我們也要保證其安全性。GPT-3 能夠處理多項任務(wù),但它并不像我們認為的那樣可靠。我們希望給模型一項任務(wù)后,模型能夠返回無需更改或確認的輸出。在 OpenAI,我們提出了一種新方法:基于人類反饋的強化學習。該方法允許人類裁判利用強化信號用我們想要的方式指導模型的行為,這樣我們就可以強化期望的行為,抑制不想要的行為。
GPT-3 等系統(tǒng)被動地吸收信息。它們吸收數(shù)據(jù)并內(nèi)化其相關(guān)性,當訓練數(shù)據(jù)集包含我們不希望模型模仿的行為樣本時,這是個大問題。而使用基于人類反饋的強化學習后,我們可以讓語言模型展示出多種行為,人類裁判就這一行為是否符合期望給出反饋。我們發(fā)現(xiàn) GPT-3 語言模型能夠快速從這些反饋中學習,這樣我們就可以利用相對少的人類交互快速精確地調(diào)整模型行為。
讓語言模型處理文本和圖像這兩種數(shù)據(jù)模態(tài),并通過與人類的交互進行訓練后,我們看到了一條路徑,使模型變得更強大、更值得信任,因而對更多人具備更大用途。這條路徑將在 2021 年提供更多令人振奮的發(fā)展前景。
原文鏈接:https://blog.deeplearning.ai/blog/the-batch-new-year-wishes-from-fei-fei-li-harry-shum-ayanna-howard-ilya-sutskever-matthew-mattina