久久久18,天天躁夜夜躁狠狠躁婷婷,国产成人三级一区二区在线观看一,最近的2019中文字幕视频 ,最新免费av在线观看

a&s專(zhuān)業(yè)的自動(dòng)化&安全生態(tài)服務(wù)平臺(tái)
公眾號(hào)
安全自動(dòng)化

安全自動(dòng)化

安防知識(shí)網(wǎng)

安防知識(shí)網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺(tái)
大安防供需平臺(tái)

大安防供需平臺(tái)

資訊頻道橫幅A1
首頁(yè) > 資訊 > 正文

未來(lái)的人工智能,最熱門(mén)的技術(shù)趨勢(shì)是什么?

隨著Google、Microsoft和Facebook等巨頭的大力投入,深度學(xué)習(xí)正在超越機(jī)器學(xué)習(xí),人工智能來(lái)勢(shì)兇猛。那么,如今人工智能最熱門(mén)的技術(shù)趨勢(shì)是什么?

  隨著Google、Microsoft和Facebook等巨頭的大力投入,深度學(xué)習(xí)正在超越機(jī)器學(xué)習(xí),人工智能來(lái)勢(shì)兇猛。那么,如今人工智能最熱門(mén)的技術(shù)趨勢(shì)是什么?

  黑匣認(rèn)為,復(fù)雜神經(jīng)網(wǎng)絡(luò)、LSTMs(長(zhǎng)短期記憶網(wǎng)絡(luò))、注意力模型(Attention Models)等十大趨勢(shì)將塑造人工智能未來(lái)的技術(shù)格局。

  上述判斷來(lái)自NIPS(神經(jīng)信息處理系統(tǒng)) 2015大會(huì)。NIPS始于1987年,是人工智能領(lǐng)域兩大重要學(xué)習(xí)會(huì)議之一,由于AI的爆炸式發(fā)展,近年來(lái)逐漸成為許多硅谷公司必須參加的年度會(huì)議。

  在蒙特利爾召開(kāi)的NIPS 2015吸引了眾多AI學(xué)界與業(yè)界的頂級(jí)專(zhuān)家,與會(huì)人數(shù)接近4000。大會(huì)總共收錄了403篇論文,其中深度學(xué)習(xí)課題約占11%。來(lái)自Dropbox的高級(jí)軟件工程師Brad Neuberg分享了他所注意到的十大技術(shù)趨勢(shì),黑匣將對(duì)每種趨勢(shì)做了詳細(xì)分析。

  1、神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來(lái)越復(fù)雜

  感知和翻譯等大多數(shù)神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來(lái)越復(fù)雜,遠(yuǎn)非此前簡(jiǎn)單的前饋神經(jīng)網(wǎng)絡(luò)或卷積神經(jīng)網(wǎng)絡(luò)所能比。特別需要注意的是,神經(jīng)網(wǎng)絡(luò)正與不同的技術(shù)(如LSTMs、卷積、自定義目標(biāo)函數(shù)等)相混合。

  神經(jīng)網(wǎng)絡(luò)是多數(shù)深度學(xué)習(xí)項(xiàng)目的根基。深度學(xué)習(xí)基于人腦結(jié)構(gòu),一層層互相連接的人工模擬神經(jīng)元模仿大腦的行為,處理視覺(jué)和語(yǔ)言等復(fù)雜問(wèn)題。這些人工神經(jīng)網(wǎng)絡(luò)可以收集信息,也可以對(duì)其做出反應(yīng)。它們能對(duì)事物的外形和聲音做出解釋?zhuān)€可以自行學(xué)習(xí)與工作。

(人工模擬神經(jīng)元試圖模仿大腦行為 | 圖片來(lái)源:Frontiers)

  但這一切都需要極高的計(jì)算能力。早在 80 年代初期,Geoffrey Hinton和他的同事們就開(kāi)始研究深度學(xué)習(xí)。然而彼時(shí)電腦還不夠快,不足以處理有關(guān)神經(jīng)網(wǎng)絡(luò)的這些龐大的數(shù)據(jù)。當(dāng)時(shí)AI研究的普遍方向也與他們相反,人們都在尋找捷徑,直接模擬出行為而不是模仿大腦的運(yùn)作。

  隨著計(jì)算能力的提升和算法的改進(jìn),今天,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)已經(jīng)成為人工智能領(lǐng)域最具吸引力的流派。這些神經(jīng)網(wǎng)絡(luò)還在變得更復(fù)雜,當(dāng)年“谷歌大腦”團(tuán)隊(duì)最開(kāi)始嘗試“無(wú)監(jiān)督學(xué)習(xí)”時(shí),就動(dòng)用了1.6萬(wàn)多臺(tái)微處理器,創(chuàng)建了一個(gè)有數(shù)十億連接的神經(jīng)網(wǎng)絡(luò),在一項(xiàng)實(shí)驗(yàn)中觀(guān)看了千萬(wàn)數(shù)量級(jí)的YouTube圖像。

  2、酷的人都在用LSTMs

  當(dāng)你閱讀本文時(shí),你是在理解前面詞語(yǔ)的基礎(chǔ)上來(lái)理解每個(gè)詞語(yǔ)的。你的思想具有連續(xù)性,你不會(huì)丟棄已知信息而從頭開(kāi)始思考。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的一大缺陷便是無(wú)法做到這一點(diǎn),而遞歸神經(jīng)網(wǎng)絡(luò)(RNN)能夠解決這一問(wèn)題。

  RNN擁有循環(huán)結(jié)構(gòu),可以持續(xù)保存信息。過(guò)去幾年里,RNN在語(yǔ)音識(shí)別和翻譯等許多問(wèn)題上取得了難以置信的成功,而成功的關(guān)鍵在于一種特殊的RNN——長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTMs)。

  普通的RNN可以學(xué)會(huì)預(yù)測(cè)“the clouds are in the sky”中最后一個(gè)單詞,但難以學(xué)會(huì)預(yù)測(cè)“I grew up in France… I speak fluent French.”中最后一個(gè)詞。相關(guān)信息(clouds、France)和預(yù)測(cè)位置(sky、French)的間隔越大,神經(jīng)網(wǎng)絡(luò)就越加難以學(xué)習(xí)連接信息。這被稱(chēng)為是“長(zhǎng)期依賴(lài)關(guān)系”問(wèn)題。

(長(zhǎng)期依賴(lài)問(wèn)題 | 圖片來(lái)源:CSDN)

  LSTMs被明確設(shè)計(jì)成能克服之一問(wèn)題。LSTMs有四層神經(jīng)網(wǎng)絡(luò)層,它們以特殊的方式相互作用。這使得“能記住信息很長(zhǎng)一段時(shí)間”可以被視作LSTMs的“固有行為”,它們不需要額外學(xué)習(xí)這一點(diǎn)。對(duì)于大多數(shù)任務(wù),LSTMs已經(jīng)取得了非常好的效果。

  3、是時(shí)候注意“注意力模型(attention models)了

  LSTMs是人們使用RNNs的一個(gè)飛躍。還有其他飛躍嗎?研究者共同的想法是:“還有注意力(attention)!”

  “注意力”是指神經(jīng)網(wǎng)絡(luò)在執(zhí)行任務(wù)時(shí)知道把焦點(diǎn)放在何處。我們可以讓神經(jīng)網(wǎng)絡(luò)在每一步都從更大的信息集中挑選信息作為輸入。

  例如,當(dāng)神經(jīng)網(wǎng)絡(luò)為一張圖片生成標(biāo)題時(shí),它可以挑選圖像的關(guān)鍵部分作為輸入。

(擁有“注意力”的RNN在圖像識(shí)別中的成功運(yùn)用 | 圖片來(lái)源:Github)

  4、神經(jīng)圖靈機(jī)依然有趣,但還無(wú)法勝任實(shí)際工作

  當(dāng)你翻譯一句話(huà)時(shí),并不會(huì)逐個(gè)詞匯進(jìn)行,而是會(huì)從句子的整體結(jié)構(gòu)出發(fā)。機(jī)器難以做到這一點(diǎn),這一挑戰(zhàn)被稱(chēng)為“強(qiáng)耦合輸出的整體估計(jì)”。NIPS上很多研究者展示了對(duì)跨時(shí)間、空間進(jìn)行耦合輸出的研究。

  神經(jīng)圖靈機(jī)(Neural Turing Machine)就是研究者們?cè)诠杵兄噩F(xiàn)人類(lèi)大腦短期記憶的嘗試。它的背后是一種特殊類(lèi)型的神經(jīng)網(wǎng)絡(luò),它們可以適應(yīng)與外部存儲(chǔ)器共同工作,這使得神經(jīng)網(wǎng)絡(luò)可以存儲(chǔ)記憶,還能在此后檢索記憶并執(zhí)行一些有邏輯性的任務(wù)。

(模仿人類(lèi)短期工作記憶的神經(jīng)圖靈機(jī) | 圖片來(lái)源:arXiv)

  2014年10月,Google DeepMind公布了一臺(tái)原型電腦,它可以模仿一些人類(lèi)大腦短期工作記憶的特性。但直到NIPS2015,所有的神經(jīng)圖靈機(jī)都過(guò)于復(fù)雜,并且只能解決一些“小玩具”問(wèn)題。在未來(lái)它們或?qū)⒌玫綐O大改進(jìn)。

  5、深度學(xué)習(xí)讓計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理不再是孤島

  卷積神經(jīng)網(wǎng)絡(luò)(CNN)最早出現(xiàn)在計(jì)算機(jī)視覺(jué)中,但現(xiàn)在許多自然語(yǔ)言處理(NLP)系統(tǒng)也會(huì)使用。LSTMs與遞歸神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)最早出現(xiàn)在NLP中,但現(xiàn)在也被納入計(jì)算機(jī)視覺(jué)神經(jīng)網(wǎng)絡(luò)。

  此外,計(jì)算機(jī)視覺(jué)與NLP的交匯仍然擁有無(wú)限前景。想象一下程序?yàn)槊绖∽詣?dòng)嵌入中文字幕的場(chǎng)景吧。

  6、符號(hào)微分式越來(lái)越重要

  隨著神經(jīng)網(wǎng)絡(luò)架構(gòu)及其目標(biāo)函數(shù)變得日益復(fù)雜和自定義,手動(dòng)推導(dǎo)出“反向傳播”(back propagation)的梯度(gradients)也變得更加苦難而且容易出錯(cuò)。谷歌的TensorFlow等最新的工具包已經(jīng)可以超負(fù)荷試驗(yàn)符號(hào)微分式,能夠自動(dòng)計(jì)算出正確的微分,以確保訓(xùn)練時(shí)誤差梯度可被反向傳播。

  7、神經(jīng)網(wǎng)絡(luò)模型壓縮的驚人成果

  多個(gè)團(tuán)隊(duì)以不同方法大幅壓縮了訓(xùn)練一個(gè)良好模型所需的素材體量,這些方法包括二值化、固定浮點(diǎn)數(shù)、迭代修剪和精細(xì)調(diào)優(yōu)步驟等。

  這些技術(shù)潛在的應(yīng)用前景廣闊,可能將會(huì)適應(yīng)在移動(dòng)設(shè)備上進(jìn)行復(fù)雜模型的訓(xùn)練。例如,不需要延遲就可以得到語(yǔ)音識(shí)別結(jié)果。此外,如果運(yùn)算所需要的空間和時(shí)間極大降低,我們就可以極高幀率(如30 FPS)查詢(xún)一個(gè)模型,這樣,在移動(dòng)設(shè)備上也可以運(yùn)用復(fù)雜神經(jīng)網(wǎng)絡(luò)模型,從而近乎實(shí)時(shí)地完成計(jì)算機(jī)視覺(jué)任務(wù)。

  8、深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)繼續(xù)交匯

  雖然NIPS 2015上沒(méi)有什么強(qiáng)化學(xué)習(xí)(reinforcement learning)的重要成果,但“深度強(qiáng)化學(xué)習(xí)”研討會(huì)還是展現(xiàn)了深度神經(jīng)網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí)相結(jié)合的前景。

  在“端對(duì)端”(end-to-end)機(jī)器人等領(lǐng)域出現(xiàn)了令人激動(dòng)的進(jìn)展,現(xiàn)在機(jī)器人已經(jīng)可以一起運(yùn)用深度和強(qiáng)化學(xué)習(xí),從而將原始感官數(shù)據(jù)直接轉(zhuǎn)化為實(shí)際動(dòng)作驅(qū)動(dòng)。我們正在超越“分類(lèi)”等簡(jiǎn)單工作,嘗試將“計(jì)劃”與“行動(dòng)”納入方程。還有大量工作需要完成,但早期的工作已經(jīng)使人感到興奮。

  9、難道你還沒(méi)有使用批標(biāo)準(zhǔn)化?

  批標(biāo)準(zhǔn)化(batch normalization)現(xiàn)在被視作評(píng)價(jià)一個(gè)神經(jīng)網(wǎng)絡(luò)工具包的部分標(biāo)準(zhǔn),在NIPS 2015 上被不斷提及。

  10、神經(jīng)網(wǎng)絡(luò)研究與優(yōu)化齊頭并進(jìn)

  創(chuàng)造新的神經(jīng)網(wǎng)絡(luò)方法需要研究者,還需要能將它們迅速付諸實(shí)踐的方法。谷歌的TensorFlow是少數(shù)能夠做到這些的庫(kù):使用Python 或 C++等主流編程語(yǔ)言,研究者可以迅速創(chuàng)作新的網(wǎng)絡(luò)拓?fù)鋱D,接著在單一或多個(gè)設(shè)備(包括移動(dòng)設(shè)備)上進(jìn)行測(cè)試。

五大關(guān)鍵詞讀懂2015年人工智能的那些事
李彥宏、馬化騰、柳傳志、雷軍都看好人工智能、機(jī)器人和VR

參與評(píng)論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評(píng)論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀(guān)點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專(zhuān)業(yè)媒體平臺(tái),自1994年品牌成立以來(lái),一直專(zhuān)注于安全&自動(dòng)化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場(chǎng)趨勢(shì)的專(zhuān)業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國(guó)際行業(yè)展覽會(huì)資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動(dòng)、展會(huì)等整合營(yíng)銷(xiāo)服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來(lái)源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無(wú)意。如您是字體廠(chǎng)商、圖片文字廠(chǎng)商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號(hào) 粵公網(wǎng)安備 44030402000264號(hào)
用戶(hù)
反饋