亚洲人成人毛片无遮挡,亚洲成人免费在线观看,成年女人视频免费观看一,亚洲第二页,视频二区国产,高清国产美女**毛片录,免费观看a级毛片在线播放

您好,歡迎進(jìn)入橘子令建站!

汽車音響
當(dāng)前位置: 首頁> 汽車音響

圖靈獎數(shù)量排行(圖靈獎難得嗎)

來源: 日期:2025-09-16 瀏覽次數(shù):46179

 ?。▉碓矗簷C(jī)器之心Pro)  機(jī)器之心報道機(jī)器之心編輯部  今天上午,圖靈在世界人工智能大會 WAIC 上,獎數(shù)2024 年諾貝爾物理學(xué)獎得主、量排靈獎2018 年圖靈獎得主、行圖人工智能教父杰弗里?辛頓(Geoffrey Hinton)發(fā)表了題為「

數(shù)字智能是圖靈否會取代生物智能」的開場演講。

  該演講圍繞人工智能領(lǐng)域的獎數(shù)歷史、未來發(fā)展方向、量排靈獎?wù)Z言模型的行圖原理、數(shù)字與生物計算特點(diǎn)以及 AI 發(fā)展帶來的圖靈擔(dān)憂等內(nèi)容展開,辛頓高度評價了當(dāng)前 AI 領(lǐng)域的獎數(shù)大模型技術(shù),認(rèn)為其與人類思考模式相同。量排靈獎

  以下是辛頓演講實(shí)錄整理:大語言模型,在用人類的圖靈方式思考?  非常感謝大家給我這樣一個機(jī)會,讓我來分享一下個人的獎數(shù)觀點(diǎn) —— 有關(guān) AI 的歷史和它的未來  在過去 60 多年來,學(xué)界對于 AI 有兩種不同的量排靈獎理解范式,一個是邏輯型,認(rèn)為符號規(guī)則的表達(dá)操作可以實(shí)現(xiàn)推理;另一種是圖靈和馮諾依曼所相信的,認(rèn)為智能的基礎(chǔ)在于學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中的鏈接,這個過程中理解是第一位的。

  這讓我們開始關(guān)注語言中詞與詞之間的關(guān)系。

  心理學(xué)家有另一套理論,他們認(rèn)為數(shù)字是語義學(xué)的特征在 1985 年,我做了一個很小的模型,想把兩大理論方向結(jié)合在一起,來更好地理解人類是如何理解詞匯的我對每一個詞都分析了好幾個特征,每一個詞都與前一個詞的特征關(guān)聯(lián),由此預(yù)測下一個詞,在這個過程中我們沒有存儲任何的句子,我生成句子,預(yù)測下一個詞是什么。

  這其中關(guān)聯(lián)到的知識,取決于語義的特征是如何互動的  如果你問在那之后的三十年發(fā)生了什么?十年之后 Yoshua Bengio 的研究擴(kuò)大了它的規(guī)模,二十年后,計算語言學(xué)家終于接受了特征向量的嵌入來表達(dá)詞的意思;再到三十年后,谷歌開發(fā)了 Transformer,OpenAI 用 ChatGPT 展示了 AI 的能力。

  今天的大語言模型(LLM)被視為當(dāng)年小語言模型的后代,是 1985 年后開始的技術(shù)潮流,它們使用更多的詞作為輸入,更復(fù)雜的神經(jīng)元結(jié)構(gòu),學(xué)習(xí)特征之間也建立了更加復(fù)雜的交互模式  就像我做的那些小模型一樣,。

大語言模型與人類理解語言的方式是一樣的,就是把這些語言轉(zhuǎn)化為一些特征,然后把這些特征以一種非常完美的方式整合在一起,這就是 LLM 各個層次里所做的事情  所以我的理解就是大語言模型真的理解你是怎么理解問題的,和人類理解語言的方式是一樣的。

  我打個比方,通過樂高積木,我們可以搭建出任何一個三維的模型,比如一個小汽車的模型我們可以把每一個詞看作是一個多維度的樂高積木,可能包含幾千個不同的維度正是由于這些積木具有如此多的維度,它們就可以被用來構(gòu)建各種各樣的結(jié)構(gòu)和內(nèi)容。

  在這種方式下,語言本身就變成了一種建模的工具我們可以用語言來表達(dá)、構(gòu)建,甚至與人交流每個積木(也就是每個詞)只需要有一個名字,組合起來就可以表達(dá)復(fù)雜的含義也就是說,只要我們有了這些積木(詞),就可以隨時進(jìn)行建模和溝通。

  不過,值得注意的是,不同的積木之間也有很多差異,因此我們在使用這些詞匯(樂高積木)的時候,也有非常多的變體和替代方式  傳統(tǒng)的樂高積木是有固定形狀的,比如一個方塊插進(jìn)另一個方塊的小孔,結(jié)構(gòu)明確、連接方式也比較確定。

但語言中的詞不一樣,我們可以把每個詞也看作一個積木,但這個積木是多維度的,甚至可以說是無數(shù)種可能的,它不僅有一個基本的形狀(也就是語義核心),還可以根據(jù)上下文不斷地調(diào)整和變化  你可以想象,每個詞就像一個軟性的積木,它不是固定形狀的塑料塊,而是可以根據(jù)它要連接的鄰居詞,自主地變形。

每個詞都有許多形狀奇特的手,如果你想真正理解它的含義,就要看它是如何和其他詞握手的所謂握手,就是兩個詞之間在語義或語法上的配合關(guān)系  而一旦一個詞的形狀變了(也就是它的語義或語法角色發(fā)生了變化),它和下一個詞之間的握手方式也會跟著改變。

這就是語言理解的本質(zhì)問題之一:如何讓詞和詞之間以最合適的方式組合在一起,從而表達(dá)出更清晰、更準(zhǔn)確的意思  這其實(shí)就像是蛋白質(zhì)之間的結(jié)合:每個蛋白質(zhì)都有獨(dú)特的結(jié)構(gòu)和結(jié)合位點(diǎn),它們需要以恰當(dāng)?shù)姆绞綄樱拍馨l(fā)揮功能。

語言也是如此,每個詞都像一個蛋白質(zhì),它的形狀、連接方式會隨著環(huán)境和上下文發(fā)生變化,這也正是神經(jīng)網(wǎng)絡(luò)在建模語言時要處理的核心任務(wù)之一  我們可以把詞理解的過程繼續(xù)類比為氨基酸的組合過程就像氨基酸在不同的模型中被組合、整合,最終形成具有復(fù)雜功能的蛋白質(zhì)一樣,詞語也是被以不同的方式融合在一起,從而構(gòu)成更有意義的內(nèi)容。

這正是人腦理解語言的方式 —— 將不同的語言單元靈活組合、構(gòu)建出整體語義

  所以我想表達(dá)的觀點(diǎn)是:人類理解語言的方式,和大語言模型的理解方式,在本質(zhì)上是非常相似的所以,人類有可能就是大語言模型,人類也會和大語言模型一樣產(chǎn)生幻覺  當(dāng)然,大語言模型和人類在某些方面仍然是不同的,甚至在某些根本性的問題上,它們做得比人類更好。

超越人類的 AI,會消滅人類嗎?  回到計算機(jī)科學(xué)的一個根本性原則:軟件與硬件要分離同樣的程序可以在不同的硬件上運(yùn)行,這正是計算科學(xué)的基礎(chǔ)程序是永恒存在的,你可以把所有硬件都?xì)绲?,但若軟件存在,則內(nèi)容可以復(fù)活。

從這種意義上看,軟件是永恒的

  但是人腦是模擬式的,每一次神經(jīng)元激發(fā)的過程都不一樣,我腦中的神經(jīng)元結(jié)構(gòu)不能復(fù)制到你的身上,每個人的神經(jīng)連接方式是獨(dú)一無二的,人腦和電腦硬件的不同帶來了問題:人腦只有 30W 功率就能擁有很高智慧,但人腦的知識無法簡單轉(zhuǎn)移到另一個人,解決知識轉(zhuǎn)移的方法在 AI 領(lǐng)域中是「知識蒸餾」。

  比如 DeepSeek 就是采用這種思路,將一個大型神經(jīng)網(wǎng)絡(luò)中的知識蒸餾到一個更小的神經(jīng)網(wǎng)絡(luò)中  這個過程很像教師與學(xué)生的關(guān)系:教師在訓(xùn)練過程中,不僅知道正確答案,還知道詞語之間是如何相互關(guān)聯(lián)、上下文是如何構(gòu)建的。

教師會嘗試不斷優(yōu)化這些連接方式(比如預(yù)測下一個詞時考慮更多上下文信息);而學(xué)生則模仿教師的表達(dá)方式,嘗試說出同樣的話,但使用的是更加緊湊、簡化的網(wǎng)絡(luò)結(jié)構(gòu)

  這個過程在人類之間其實(shí)也類似 —— 我們通過對話,把一個人的知識傳遞給另一個人但這種傳遞的效率是非常有限的舉例來說,一句話可能只包含了大約 100 個比特的信息量,這意味著即便你完全聽懂了我的話,我每秒鐘也只能向你傳遞極其有限的信息量。

  而相比之下,數(shù)字智能之間傳遞知識的效率要高得多程序可以直接將參數(shù)、權(quán)重、模型結(jié)構(gòu)拷貝或蒸餾過去,不需要解釋、不需要語言中介,也不會有理解上的偏差這種效率的巨大差異,是人類智能與人工智能之間在知識遷移方面最本質(zhì)的區(qū)別之一。

  我們現(xiàn)在已經(jīng)可以做到這樣的事情:將完全相同的神經(jīng)網(wǎng)絡(luò)模型的軟件,復(fù)制上百個副本,部署在不同的硬件設(shè)備上因為它們是數(shù)字計算,每一個副本都會以相同的方式運(yùn)行,只是基于各自的數(shù)據(jù)輸入、學(xué)習(xí)速率進(jìn)行訓(xùn)練這些副本之間還能以某種方式進(jìn)行參數(shù)的平均化處理,從而實(shí)現(xiàn)知識的共享與整合。

  這其實(shí)就是互聯(lián)網(wǎng)的核心力量:我們可以有成千上萬個副本,它們彼此之間不斷地調(diào)整各自的權(quán)重,再將這些權(quán)重取平均,就能夠?qū)崿F(xiàn)模型之間的知識遷移和協(xié)同學(xué)習(xí)更重要的是,這種知識的傳遞可以在每次同步時分享上萬億個比特的信息量,而不僅僅像人類那樣每秒只能傳遞幾十或幾百個比特。

  這就意味著,數(shù)字智能之間的知識分享速度,比人類之間快了幾十億倍。例如 GPT-4 能夠在許多不同的硬件上以并行的方式運(yùn)行,收集來自不同網(wǎng)絡(luò)來源的信息,并在它們之間快速傳播和共享。

  如果我們將這種能力擴(kuò)展到現(xiàn)實(shí)世界中的「智能體」(agents)中,意義就更加重大了當(dāng)多個智能體能夠運(yùn)行、學(xué)習(xí),并共享彼此的權(quán)重和經(jīng)驗,那么它們學(xué)習(xí)和進(jìn)化的速度將遠(yuǎn)超單個個體這種跨副本的學(xué)習(xí)和進(jìn)化,是模擬硬件或生物神經(jīng)系統(tǒng)所無法實(shí)現(xiàn)的。

  總結(jié)來看:  如果未來能源變得足夠便宜,那么數(shù)字智能將進(jìn)一步擴(kuò)張它的優(yōu)勢。

  我們?nèi)祟惲?xí)慣于認(rèn)為自己是地球上最聰明的生物,因此很多人難以想象:如果有一天,AI 的智能超過了人類,會發(fā)生什么?  我們現(xiàn)在正在創(chuàng)造 AI 智能體,用于幫助我們完成各種任務(wù),它們已經(jīng)具備了自我復(fù)制、設(shè)定子目標(biāo)和評估目標(biāo)優(yōu)先級的能力。

在這樣的系統(tǒng)中,AI 很可能會自然地產(chǎn)生兩個基本動機(jī):  1.生存—— 保持持續(xù)運(yùn)行,從而完成我們賦予它的目標(biāo)  2.增強(qiáng)控制力—— 獲得更多資源與權(quán)限,也同樣是為了更有效地實(shí)現(xiàn)它的目標(biāo)  當(dāng)具備了這兩個動機(jī)之后,這些智能體將不再是被動的工具,而是主動的系統(tǒng)。

我們可能無法再簡單地「把它們關(guān)掉」了因為一旦它們的智能水平遠(yuǎn)超人類,它們將會像成年人操縱三歲小孩一樣輕松地操縱我們

  如果你養(yǎng)一個小虎崽,你必須確保它長大后不會把你吃掉。你只有兩個選擇:要么把它馴化好;要么在它還沒咬你之前,把它干掉。

  但 AI 不可能像老虎那樣被「干掉」那么簡單AI 是有巨大價值的:在醫(yī)療、教育、氣候、新材料等方面,它表現(xiàn)都非常出色,它能幫助幾乎所有行業(yè)變得更高效我們沒有辦法消除 AI,即使一個國家消除 AI,其他國家也不會這樣做。

  如果我們想要人類生存的話,就必須找到一個方法,讓 AI 不會消除人類  我發(fā)表一個個人觀點(diǎn):國家之間在某些方面可能無法達(dá)成一致,比如致命武器、網(wǎng)絡(luò)攻擊、偽造視頻等等,畢竟各國的利益是不一致的,他們有著不同的看法。

但在有的方面,世界各國是可以達(dá)成一致的,這也是最重要的方面

  我們看一下上世紀(jì) 50 年代的冷戰(zhàn)巔峰時期,美國和蘇聯(lián)合作阻止了核戰(zhàn)爭盡管他們在很多方面都是對抗的,但大家都不喜歡打核戰(zhàn)爭,在這一點(diǎn)上他們可以合作  我們現(xiàn)在的局面是,沒有一個國家希望 AI 來統(tǒng)治世界,如果有一個國家發(fā)現(xiàn)了阻止 AI 失控的方法,那么這個國家肯定會很樂意擴(kuò)展這種方法。

所以我們希望能夠有一個由 AI 安全機(jī)構(gòu)構(gòu)成的國際社群來研究技術(shù)、訓(xùn)練 AI,讓 AI 向善

  訓(xùn)練 AI 向善的技巧和訓(xùn)練 AI 聰明的技術(shù)是不一樣的,每個國家可以做自己的研究讓 AI 向善,可以基于數(shù)據(jù)主權(quán)進(jìn)行研究,最終貢獻(xiàn)、分享出讓 AI 向善的成果  我提議,全球發(fā)展 AI 的主要國家應(yīng)該考慮構(gòu)建一個網(wǎng)絡(luò),來研究讓這個聰明的 AI 不消滅人類、不統(tǒng)治世界,而是讓它很高興地做輔助工作,盡管 AI 比人類聰明很多。

  我們現(xiàn)在還不知道怎么去做這件事,但從長期來看,這是人類面臨的最重要的問題,好消息是在這個問題上,所有國家都是可以一起合作的。

杰弗里?辛頓,AI 教父  在人工智能領(lǐng)域里,杰弗里?辛頓赫赫有名他于 1947 年出生,是一位英裔加拿大計算機(jī)科學(xué)家、認(rèn)知科學(xué)家和認(rèn)知心理學(xué)家,因其在人工神經(jīng)網(wǎng)絡(luò)方面的工作而聞名,并因此被譽(yù)為「人工智能教父」。

  辛頓在 1978 年在愛丁堡大學(xué)獲得人工智能博士學(xué)位他是多倫多大學(xué)名譽(yù)教授,2013 年到 2023 年,他同時在谷歌大腦工作,2023 年 5 月公開宣布離開谷歌  1986 年,辛頓與 David Rumelhart、Ronald J. Williams 合作發(fā)表了一篇被廣泛引用的論文《Learning internal representations by error-propagation》,推廣了用于訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的反向傳播算法。

在 2012 年,他與學(xué)生 Alex Krizhevsky 和 Ilya Sutskever 合作設(shè)計了 AlexNet ,在 ImageNet 挑戰(zhàn)賽上取得了優(yōu)異成績,成為了圖像識別領(lǐng)域的里程碑,也是計算機(jī)視覺領(lǐng)域的一次突破。

  辛頓因在深度學(xué)習(xí)方面的杰出貢獻(xiàn),與約書亞?本吉奧(Yoshua Bengio)和楊立坤(Yann LeCun)共同獲得了 2018 年圖靈獎,該獎被稱為「計算機(jī)界的諾貝爾獎」他們經(jīng)常被稱為「深度學(xué)習(xí)教父」而共同提起。

辛頓還與約翰?霍普菲爾德(John Hopfield)一起獲得了 2024 年諾貝爾物理學(xué)獎,以表彰他們在利用人工神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)器學(xué)習(xí)方面做出的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明

  2023 年 5 月,辛頓宣布從谷歌辭職,以便能夠「自由地談?wù)撊斯ぶ悄艿娘L(fēng)險」他對惡意行為者的故意濫用、技術(shù)失業(yè)以及通用人工智能的生存風(fēng)險表示擔(dān)憂辛頓指出,制定安全準(zhǔn)則需要在人工智能使用方面相互競爭的各方之間進(jìn)行合作,以避免最壞的結(jié)果。

在獲得諾貝爾獎后,他呼吁緊急研究人工智能安全問題,以找出如何控制比人類更聰明的人工智能系統(tǒng)

分享到: 0 用手機(jī)看
江北区| 屯留县| 二手房| 青神县| 罗平县| 峡江县| 讷河市| 通海县| 浦城县| 卢湾区| 延边| 临沭县| 河东区| 三亚市| 方正县| 祁东县| 西和县| 象山县| 蓬溪县| 香港| 马龙县| 积石山| 合阳县| 太谷县| 仙居县| 全椒县| 德州市| 建湖县| 大兴区| 剑川县| 乃东县| 麦盖提县| 大同县| 山西省| 甘南县| 碌曲县| 句容市| 平果县| 桦甸市| 金塔县| 敖汉旗|