劃重點(diǎn)
1被稱為“人工智能教父”的杰弗里·辛頓博士宣布從谷歌離職,并計劃對他長期推崇的這項技術(shù)的風(fēng)險發(fā)出警告。 2辛頓博士解釋了GPT-4比任何同類模型都更強(qiáng)大的原因,并稱他現(xiàn)在認(rèn)為數(shù)字智能比生物智能更強(qiáng)大,也更危險。 3辛頓博士稱,科技巨頭陷入了一場可能無法阻止的競爭。他最擔(dān)心的是,互聯(lián)網(wǎng)上將充斥著虛假的照片、視頻和文字,普通人將“再也無法辨別真相”。 4辛頓博士擔(dān)心未來的人工智能技術(shù)會對人類生存構(gòu)成威脅,因?yàn)樗鼈兘?jīng)常從分析的大量數(shù)據(jù)中學(xué)習(xí)意想不到的行為,真正的自主武器(比如殺人機(jī)器人)將會成為現(xiàn)實(shí)。騰訊科技訊 5月2日消息,被稱為“人工智能教父”的杰弗里·辛頓博士(Geoffrey Hinton)宣布從谷歌離職。半個世紀(jì)以來,杰弗里·辛頓幫助開發(fā)了ChatGPT等聊天機(jī)器人的核心技術(shù)?,F(xiàn)在,他開始擔(dān)心該技術(shù)會造成嚴(yán)重的傷害。
【資料圖】
“就算我不做,別人也會做的”
杰弗里·辛頓是人工智能領(lǐng)域的先驅(qū)。2012年,辛頓博士和他在多倫多大學(xué)的兩名研究生開發(fā)的技術(shù),成為了人工智能系統(tǒng)的智力基礎(chǔ)。科技行業(yè)最大的公司認(rèn)為,人工智能系統(tǒng)是它們未來的關(guān)鍵。
然而,辛頓博士本周正式加入了越來越多的批評人士行列。他們認(rèn)為,這些公司積極開發(fā)基于生成式人工智能(AIGC)的產(chǎn)品,正在走向危險。這種技術(shù)為ChatGPT等流行聊天機(jī)器人提供動力。
辛頓博士說,他已經(jīng)辭去了谷歌的工作。他在谷歌工作了十多年,并成為該領(lǐng)域最受尊敬的專家之一,所以他可以從技術(shù)層面解讀人工智能的風(fēng)險。辛頓博士表示,他現(xiàn)在內(nèi)心有幾分對自己畢生的工作感到后悔。
“我用常用的借口來安慰自己:就算我不做,別人也會做的,”上周,辛頓博士在多倫多家中的餐廳接受了媒體專訪,那里距離他和學(xué)生取得突破的地方只有幾步之遙。
辛頓博士從人工智能的開拓者向末日預(yù)言者的轉(zhuǎn)變,標(biāo)志著科技行業(yè)正處于一個不同尋常的時刻,這可能是幾十年來最重要的拐點(diǎn)。行業(yè)領(lǐng)袖認(rèn)為,新的人工智能系統(tǒng)可能與上世紀(jì)90年代初推出的網(wǎng)絡(luò)瀏覽器一樣重要,可能會在藥物研究和教育等領(lǐng)域帶來突破。
然而,令許多業(yè)內(nèi)人士苦惱的是,他們擔(dān)心自己正在釋放一些危險的東西。AIGC已經(jīng)可以成為制造錯誤信息的工具。很快,這可能會對就業(yè)構(gòu)成威脅??萍夹袠I(yè)最大的擔(dān)憂者表示,在未來的某個時候,AIGC甚至可能會對人類生存構(gòu)成威脅。
辛頓博士說:“很難想象如何才能阻止壞人利用它做壞事?!?/p>
新一代聊天機(jī)器人
舊金山初創(chuàng)公司OpenAI今年3月發(fā)布了新版ChatGPT后,1000多名技術(shù)領(lǐng)袖和研究人員簽署了一封公開信,呼吁暫停新系統(tǒng)的開發(fā)六個月,因?yàn)槿斯ぶ悄芗夹g(shù)“對社會和人類構(gòu)成了深刻的風(fēng)險”。
幾天后,有40年歷史的學(xué)術(shù)團(tuán)體人工智能促進(jìn)協(xié)會的19位在任和前任領(lǐng)導(dǎo)人發(fā)表了他們自己的公開信,警告人工智能的風(fēng)險。該組織成員包括微軟首席科學(xué)官埃里克·霍維茨,而微軟已將OpenAI的技術(shù)應(yīng)用于一系列產(chǎn)品,包括必應(yīng)搜索引擎。
常被稱為“人工智能教父”的辛頓博士沒有在這兩封公開信上簽名,他說,在辭職之前,他不想公開批評谷歌或其他公司。上個月,他通知公司自己將辭職,并與谷歌及其母公司Alphabet的首席執(zhí)行官桑達(dá)爾·皮查伊通了電話。他拒絕公開討論與皮查伊談話的細(xì)節(jié)。
谷歌人工智能業(yè)務(wù)的首席科學(xué)家杰夫·迪恩在一份聲明中表示:“我們?nèi)匀恢铝τ谝载?fù)責(zé)任的態(tài)度開發(fā)和部署人工智能技術(shù)。我們在不斷學(xué)習(xí)理解新出現(xiàn)的風(fēng)險的同時,也在大膽創(chuàng)新?!?/p>
開發(fā)神經(jīng)網(wǎng)絡(luò)獲圖靈獎
現(xiàn)年75歲的辛頓博士是英國僑民,他一生從事學(xué)術(shù)工作,其對人工智能的發(fā)展和使用的個人信念推動了整個職業(yè)生涯的發(fā)展。1972年,作為愛丁堡大學(xué)的研究生,辛頓博士接受了名為神經(jīng)網(wǎng)絡(luò)的想法。神經(jīng)網(wǎng)絡(luò)是一種通過分析數(shù)據(jù)來學(xué)習(xí)技能的數(shù)學(xué)系統(tǒng)。當(dāng)時,很少有研究人員相信這個想法,但這成了他畢生的事業(yè)追求。
20世紀(jì)80年代,辛頓博士成為卡內(nèi)基梅隆大學(xué)的計算機(jī)科學(xué)教授,但他離開了這所大學(xué)前往加拿大,因?yàn)樗f自己不愿接受美國國防部的資助。當(dāng)時,美國的大多數(shù)人工智能研究都由國防部資助。辛頓博士強(qiáng)烈反對在戰(zhàn)場上使用人工智能,他稱之為“機(jī)器人士兵”。
2012年,辛頓博士和他在多倫多的兩名學(xué)生伊利亞·蘇斯凱弗和亞歷克斯·克里舍夫斯基建立了一個神經(jīng)網(wǎng)絡(luò),它可以分析數(shù)千張照片,并自學(xué)識別常見物體,比如花、狗和汽車等。
谷歌斥資4400萬美元收購了辛頓博士和他的兩個學(xué)生創(chuàng)辦的公司。他們的系統(tǒng)催生了越來越強(qiáng)大的技術(shù),包括ChatGPT和谷歌Bard等新型聊天機(jī)器人。蘇斯凱弗后來成為OpenAI的首席科學(xué)家。2018年,辛頓博士和另外兩位長期合作者因在神經(jīng)網(wǎng)絡(luò)方面的工作獲得了圖靈獎,這一獎項通常被稱為“計算界的諾貝爾獎”。
數(shù)字智能更強(qiáng)大
大約在同一時間,谷歌、OpenAI和其他公司開始構(gòu)建從大量數(shù)字文本中學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)。辛頓博士認(rèn)為,這是機(jī)器理解和生成語言的一種強(qiáng)大方式,但它仍不如人類處理語言的方式。
去年,隨著谷歌和OpenAI構(gòu)建了使用大量數(shù)據(jù)的系統(tǒng),他的觀點(diǎn)發(fā)生了變化。他仍然認(rèn)為這些系統(tǒng)在某些方面不如人類大腦,但他認(rèn)為它們在其他方面使人類的智慧黯然失色。辛頓博士說:“也許這些系統(tǒng)中發(fā)生的事情實(shí)際上比大腦中發(fā)生的事情要好得多?!?/p>
辛頓博士認(rèn)為,隨著公司對人工智能系統(tǒng)的改進(jìn),它們會變得越來越危險?!翱纯次迥昵昂同F(xiàn)在的情況,”他在談到人工智能技術(shù)時說。“它們開似乎接受差異并將其向前傳播,這是非常可怕的。”
辛頓博士表示:“我現(xiàn)在認(rèn)為,我們正在創(chuàng)造的數(shù)字智能與生物智能截然不同。如果我有1000個數(shù)字代理,它們都是完全相同權(quán)重的克隆體,每當(dāng)一個代理學(xué)習(xí)如何做某事時,所有代理都會立即學(xué)會,因?yàn)樗鼈児蚕頇?quán)重。而生物智能做不到這一點(diǎn)。因此,相同的數(shù)字代理集合可以獲得比任何單個生物代理多得多的知識。這就是為什么GPT-4比任何同類模型都更強(qiáng)大的原因?!?/p>
辛頓博士在2021年孟買印度理工學(xué)院的畢業(yè)典禮上說:“我相信人工智能的快速發(fā)展將以我們尚未完全理解的方式改變社會,并不是所有的影響都是好的?!彼赋觯斯ぶ悄芸赡軙龠M(jìn)醫(yī)學(xué)發(fā)展,同時也可能被用于創(chuàng)造致命的自主武器。“我發(fā)現(xiàn)這種前景比機(jī)器人取代人類的前景更直接,也更可怕,我認(rèn)為機(jī)器人取代人類還有很長的路要走?!?/p>
人工智能競賽需全球監(jiān)管
辛頓博士透露,直到去年,谷歌一直是這項技術(shù)的“適當(dāng)管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現(xiàn)在微軟用聊天機(jī)器人增強(qiáng)了必應(yīng)搜索引擎以挑戰(zhàn)谷歌的核心業(yè)務(wù),后者也開始競相部署同樣的技術(shù)。
辛頓博士說,科技巨頭陷入了一場可能無法阻止的競爭。他最擔(dān)心的是,互聯(lián)網(wǎng)上將充斥著虛假的照片、視頻和文字,普通人將“再也無法辨別真相”。
他還擔(dān)心人工智能技術(shù)最終會顛覆就業(yè)市場。如今,像ChatGPT這樣的聊天機(jī)器人往往是對人類工作者能力的補(bǔ)充,但它們也可能取代律師助理、個人助理、翻譯和其他從事機(jī)械式重復(fù)任務(wù)的人。他說:“它們承擔(dān)了繁重的工作,但帶走的可能不止這些。”
辛頓博士擔(dān)心未來的人工智能技術(shù)會對人類生存構(gòu)成威脅,因?yàn)樗鼈兘?jīng)常從分析的大量數(shù)據(jù)中學(xué)習(xí)意想不到的行為。他說,這成了一個問題,因?yàn)閭€人和公司不僅允許人工智能系統(tǒng)生成自己的計算機(jī)代碼,還允許它們自己運(yùn)行這些代碼。他擔(dān)心有一天真正的自主武器(比如殺人機(jī)器人)會成為現(xiàn)實(shí)。
辛頓博士說:“有些人相信,這類機(jī)器實(shí)際上會變得比人更聰明。但大多數(shù)人認(rèn)為這太離譜了,我也這么認(rèn)為。我曾預(yù)計,這需要30年、50年甚至更長的時間。顯然,我現(xiàn)在不再這么認(rèn)為了?!?/p>
包括他的許多學(xué)生和同事在內(nèi)的許多其他專家表示,這種威脅屬于假想。但辛頓博士認(rèn)為,谷歌和微軟以及其他公司之間的競爭將升級為一場全球競爭,如果沒有某種全球性監(jiān)管,這場競賽是不會停止的。
但辛頓博士認(rèn)為這個問題很難解決。他說,與核武器不同的是,我們沒有辦法知道公司或國家是否在秘密開發(fā)這項技術(shù),最大的希望是世界領(lǐng)先的科學(xué)家攜手合作?!拔艺J(rèn)為人們不應(yīng)該擴(kuò)大人工智能研發(fā)規(guī)模,直到他們明白自己是否可以控制它。”
辛頓博士說,當(dāng)過去人們問他如何才能研發(fā)出具有潛在危險的技術(shù)時,他會用領(lǐng)導(dǎo)美國制造原子彈的羅伯特·奧本海默的話來解釋:“當(dāng)你看到某種技術(shù)上令人興奮的東西時,你就會去做?!钡F(xiàn)在不再這么說了。(金鹿)
