日韩动漫在线一区二区观看中文字幕|亚洲国产美国国产综合一区|国产成人综合日韩精品无码不卡|亚洲无码熟妇视频

<ul id="oo0ui"></ul>
  • <strike id="oo0ui"><input id="oo0ui"></input></strike>
  • <strike id="oo0ui"><source id="oo0ui"></source></strike>
    <dd id="oo0ui"></dd>
    首頁(yè) > PPT模板 > PPT課件模板 > 湘潭大學(xué)-人工智能課件-機(jī)器學(xué)習(xí)ppt.PPTX 【圖片、文字、動(dòng)畫均可編輯】

    湘潭大學(xué)-人工智能課件-機(jī)器學(xué)習(xí)ppt

    湘潭大學(xué)-人工智能課件-機(jī)器學(xué)習(xí)ppt

    Artificial Intelligence (AI)人工智能第七章 機(jī)器學(xué)習(xí)


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)系統(tǒng)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)8.其他7.知識(shí)發(fā)現(xiàn)


    阿法狗通過(guò)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)所有高水平圍棋棋譜,大概是歷史上有的20萬(wàn)個(gè)左右職業(yè)棋譜,從而獲得了在盤面上如何落子的直覺(jué)。


    類似的深度學(xué)習(xí)是在近幾年出現(xiàn)的,目前,這項(xiàng)科技也有了一些應(yīng)用,最簡(jiǎn)單的例子就是通過(guò)深度學(xué)習(xí)識(shí)別貓。通過(guò)這項(xiàng)識(shí)別驗(yàn)證,已經(jīng)引申出了更多具有實(shí)際意義的應(yīng)用,比如識(shí)別某一個(gè)圖片中是否有癌細(xì)胞,某一個(gè)鐵路沿線上的軌道是否存在磨損,甚至軍事作戰(zhàn)中,對(duì)方的視線中是否有坦克,都可以通過(guò)深度學(xué)習(xí)實(shí)現(xiàn)。谷歌的自動(dòng)駕駛,其中很重要的就是識(shí)別道路、交通信號(hào)燈、路標(biāo)等,這都是通過(guò)深度學(xué)習(xí)獲得。


    阿法狗走的是通用學(xué)習(xí)的道路。它的估值函數(shù),不是專家攻關(guān)搗哧出來(lái)的。它的作者只是搭了一個(gè)基本的框架(一個(gè)多層的神經(jīng)網(wǎng)絡(luò)),除了圍棋最基本的規(guī)則外,沒(méi)有任何先驗(yàn)知識(shí)。你可以把它想象成一個(gè)新生兒的大腦,一張白紙。然后,直接用人類高手對(duì)局的3000萬(wàn)個(gè)局面訓(xùn)練它,自動(dòng)調(diào)節(jié)它的神經(jīng)網(wǎng)絡(luò)參數(shù),讓它的行為和人類高手接近。這樣,阿法狗就具有了基本的棋感,看到一個(gè)局面大致就能知道好還是不好。 阿法狗的核心技術(shù)還包括策略網(wǎng)絡(luò)的訓(xùn)練和蒙特卡洛樹(shù)搜索。


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)系統(tǒng)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)8.其他


    機(jī)器學(xué)習(xí)是人工智能的核心,通過(guò)使機(jī)器模擬人類學(xué)習(xí)行為,智能化地從過(guò)去的經(jīng)歷中獲得經(jīng)驗(yàn),從而改善其整體性能,重組內(nèi)在知識(shí)結(jié)構(gòu),并對(duì)未知事件進(jìn)行準(zhǔn)確的推斷。機(jī)器學(xué)習(xí)在科學(xué)和工程諸多領(lǐng)域都有著非常廣泛的應(yīng)用,例如金融分析、數(shù)據(jù)挖掘、生物信息學(xué)、醫(yī)學(xué)診斷等。生活中常見(jiàn)的一些智能系統(tǒng)也廣泛使用機(jī)器學(xué)習(xí)算法,例如電子商務(wù)、手寫輸入、郵件過(guò)濾等。


    人類的未來(lái)生活和工作,還將有機(jī)器人參與。機(jī)器人的自主學(xué)習(xí),更離不開(kāi)人臉識(shí)別技術(shù)。 2015年3月16日,馬云在德國(guó)參加活動(dòng)時(shí),為嘉賓演示了一項(xiàng)“Smile to Pay”的掃臉技術(shù)。在網(wǎng)購(gòu)后的支付認(rèn)證階段,通過(guò)掃臉取代傳統(tǒng)的密碼,實(shí)現(xiàn)“刷臉支付”。


    機(jī)器學(xué)習(xí)的基本概念機(jī)器學(xué)習(xí)的兩大學(xué)派機(jī)器學(xué)習(xí):人工智能的重要分支構(gòu)造具有學(xué)習(xí)能力的智能系統(tǒng)知識(shí)、推理、學(xué)習(xí)手段:統(tǒng)計(jì),邏輯,代數(shù)……統(tǒng)計(jì)機(jī)器學(xué)習(xí)從大量樣本出發(fā),運(yùn)用統(tǒng)計(jì)方法,發(fā)現(xiàn)統(tǒng)計(jì)規(guī)律有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)問(wèn)題:分類,聚類,回歸


    機(jī)器學(xué)習(xí)的基本概念機(jī)器學(xué)習(xí)的定義西蒙(Simon,1983):學(xué)習(xí)就是系統(tǒng)中的適應(yīng)性變化,這種變化使系統(tǒng)在重復(fù)同樣工作或類似工作時(shí),能夠做得更好。明斯基(Minsky,1985):學(xué)習(xí)是在人們頭腦里(心理內(nèi)部)有用的變化。學(xué)習(xí)是一個(gè)有特定目的知識(shí)獲取和能力增長(zhǎng)過(guò)程,其內(nèi)在行為是獲得知識(shí)、積累經(jīng)驗(yàn)、發(fā)現(xiàn)規(guī)律等,其外部表現(xiàn)是改進(jìn)性能、適應(yīng)環(huán)境、實(shí)現(xiàn)自我完善等。機(jī)器學(xué)習(xí)是研究如何使用機(jī)器來(lái)模擬人類學(xué)習(xí)活動(dòng)的一門學(xué)科。


    機(jī)器學(xué)習(xí)的基本概念機(jī)器學(xué)習(xí)的任務(wù)根據(jù)有限樣本集 Q ,推算這個(gè)世界 W 的模型,使得其對(duì)這個(gè)世界為真。


    機(jī)器學(xué)習(xí)的基本概念機(jī)器學(xué)習(xí)的三要素一致性假設(shè):假設(shè)世界W與樣本集Q具有某種相同性質(zhì)機(jī)器學(xué)習(xí)的條件。樣本空間劃分:將樣本集放到一個(gè)n維空間,尋找一個(gè)決策面(等價(jià)關(guān)系),使得問(wèn)題決定的不同對(duì)象被劃分在不相交的區(qū)域。泛化能力:從有限樣本集合中獲得的規(guī)律是否對(duì)學(xué)習(xí)集以外的數(shù)據(jù)仍然有效。泛化能力 決定模型對(duì)世界的有效性。


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)系統(tǒng)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)7.其他


    機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)機(jī)器學(xué)習(xí)的主要策略:按照學(xué)習(xí)中使用推理的多少,機(jī)器學(xué)習(xí)所采用的策略大體上可分為4種機(jī)械學(xué)習(xí):記憶學(xué)習(xí)方法,即把新的知識(shí)存儲(chǔ)起來(lái),供需要時(shí)檢索調(diào)用,而不需要計(jì)算和推理。示教學(xué)習(xí):外界輸入知識(shí)與內(nèi)部知識(shí)的表達(dá)不完全一致,系統(tǒng)在接受外部知識(shí)時(shí)需要推理、翻譯和轉(zhuǎn)化。類比學(xué)習(xí):需要發(fā)現(xiàn)當(dāng)前任務(wù)與已知知識(shí)的相似之處,通過(guò)類比給出完成當(dāng)前任務(wù)的方案。示例學(xué)習(xí):需要從一組正例和反例中分析和總結(jié)出一般性的規(guī)律,在新的任務(wù)中推廣、驗(yàn)證、修改規(guī)律。


    機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)學(xué)習(xí)系統(tǒng)的基本結(jié)構(gòu)影響學(xué)習(xí)系統(tǒng)設(shè)計(jì)的要素環(huán)境:環(huán)境向系統(tǒng)提供信息的水平(一般化程度)和質(zhì)量(正確性)知識(shí)庫(kù):表達(dá)能力,易于推理,容易修改,知識(shí)表示易于擴(kuò)展。


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)系統(tǒng)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)7.其他


    歸納學(xué)習(xí)歸納學(xué)習(xí)(Induction Learning)歸納學(xué)習(xí)是應(yīng)用歸納推理進(jìn)行學(xué)習(xí)的一種方法。歸納學(xué)習(xí)的模式: 實(shí)驗(yàn)規(guī)劃過(guò)程通過(guò)對(duì)實(shí)例空間的搜索完成實(shí)例選擇,并將這些選中拿到的活躍實(shí)例提交給解釋過(guò)程。解釋過(guò)程對(duì)實(shí)例加以適當(dāng)轉(zhuǎn)換,把活躍實(shí)例變換為規(guī)則空間中的特定概念,以引導(dǎo)規(guī)則空間的搜索。


    歸納學(xué)習(xí)歸納學(xué)習(xí)(Induction Learning)歸納學(xué)習(xí)是目前研究得最多的學(xué)習(xí)方法,其學(xué)習(xí)目的是為了獲得新概念、構(gòu)造新規(guī)則或發(fā)現(xiàn)新理論。根據(jù)歸納學(xué)習(xí)有無(wú)教師指導(dǎo),可把它分為示例學(xué)習(xí):給學(xué)習(xí)者提供某一概念的一組正例和反例,學(xué)習(xí)者歸納出一個(gè)總的概念描述(規(guī)則),并使這個(gè)描述適合于所有的正例,排除所有的反例。觀察發(fā)現(xiàn)學(xué)習(xí):概念聚類:按照一定的方式和準(zhǔn)則分組,歸納概念機(jī)器發(fā)現(xiàn):從數(shù)據(jù)和事例中發(fā)現(xiàn)新知識(shí)


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)系統(tǒng)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)7.其他


    類比學(xué)習(xí)類比推理和類比學(xué)習(xí)方式類比學(xué)習(xí)(learning by analogy)就是通過(guò)類比,即通過(guò)對(duì)相似事物加以比較所進(jìn)行的一種學(xué)習(xí) 。類比學(xué)習(xí)是利用二個(gè)不同領(lǐng)域(源域、目標(biāo)域)中的知識(shí)相似性,可以通過(guò)類比,從源域的知識(shí)(包括相似的特征和其它性質(zhì))推導(dǎo)出目標(biāo)域的相應(yīng)知識(shí),從而實(shí)現(xiàn)學(xué)習(xí)。例如:1. 一個(gè)從未開(kāi)過(guò)truck的司機(jī),只要他有開(kāi)car的知識(shí)就可完成開(kāi)truck的任務(wù)。2. 若把某個(gè)人比喻為消防車,則可通過(guò)觀察消防車的行為,推斷出這個(gè)人的性格。


    類比學(xué)習(xí)類比推理和類比學(xué)習(xí)方式類比學(xué)習(xí)系統(tǒng)可以使一個(gè)已有的計(jì)算機(jī)應(yīng)用系統(tǒng)轉(zhuǎn)變?yōu)檫m應(yīng)于新的領(lǐng)域,來(lái)完成原先沒(méi)有設(shè)計(jì)的相類似的功能。類比推理過(guò)程: 回憶與聯(lián)想:找出當(dāng)前情況的相似情況 選擇:選擇最相似的情況及相關(guān)知識(shí) 建立對(duì)應(yīng)關(guān)系:建立相似元素之間的映射 轉(zhuǎn)換:求解問(wèn)題或產(chǎn)生新的知識(shí)


    類比學(xué)習(xí)類比學(xué)習(xí)研究類型問(wèn)題求解型的類比學(xué)習(xí):求解一個(gè)新問(wèn)題時(shí),先回憶以前是否求解過(guò)類似問(wèn)題,若是,則以此為依據(jù)求解新問(wèn)題。預(yù)測(cè)推理型的類比學(xué)習(xí)傳統(tǒng)的類比法:用來(lái)推斷一個(gè)不完全確定的事物可能還有的其他屬性因果關(guān)系型:已知因果關(guān)系S1:A->B,如果有A'≌A,則可能有B'滿足A'->B'


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)系統(tǒng)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)7.其他


    解釋學(xué)習(xí)解釋學(xué)習(xí)(Explanation-based learning, EBL) 解釋學(xué)習(xí)興起于20世紀(jì)80年代中期,根據(jù)任務(wù)所在領(lǐng)域知識(shí)和正在學(xué)習(xí)的概念知識(shí),對(duì)當(dāng)前實(shí)例進(jìn)行分析和求解,得出一個(gè)表征求解過(guò)程的因果解釋樹(shù),以獲取新的知識(shí)。例如:學(xué)生根據(jù)教師提供的目標(biāo)概念、該概念的一個(gè)例子、領(lǐng)域理論及可操作準(zhǔn)則,首先構(gòu)造一個(gè)解釋來(lái)說(shuō)明為什么該例子滿足目標(biāo)概念,然后將解釋推廣為目標(biāo)概念的一個(gè)滿足可操作準(zhǔn)則的充分條件。


    解釋學(xué)習(xí)解釋學(xué)習(xí)過(guò)程和算法米切爾提出了一個(gè)解釋學(xué)習(xí)的統(tǒng)一算法EBG,建立了基于解釋的概括過(guò)程,并用知識(shí)的邏輯表示和演繹推理進(jìn)行問(wèn)題求解。其一般性描述為:給定:領(lǐng)域知識(shí)DT目標(biāo)概念TC訓(xùn)練實(shí)例TE操作性準(zhǔn)則OC找出:滿足OC的關(guān)于TC的充分條件


    解釋學(xué)習(xí)EBG算法可概括為兩步:1.構(gòu)造解釋:運(yùn)用領(lǐng)域知識(shí)進(jìn)行演繹,證明提供給系統(tǒng)的訓(xùn)練實(shí)例為什么是滿足目標(biāo)概念的一個(gè)實(shí)例。例如:設(shè)要學(xué)習(xí)的目標(biāo)概念是 “一個(gè)物體(Obj1)可以安全地放置在另一個(gè)物體(Obj2)上”,即: Safe-To-Stack(Obj1,obj2)領(lǐng)域知識(shí)是把一個(gè)物體放置在另一個(gè)物體上面的安全性準(zhǔn)則:


    解釋學(xué)習(xí)EBG算法可概括為兩步:領(lǐng)域知識(shí):?Fragile (y)→ Safe-To-Stack (x ,y):如果y不是易碎的,則x可以安全地放到y(tǒng)的上面Lighter (x, y)→ Safe-To-Stack (x ,y):如果x 比y輕,則x可以安全地放到y(tǒng)的上面Volume (p, v) ∧Density (p, d)∧ *(v, d, w)→ Weight (p, w):如果p的體積是v、密度是d、v乘以d的積是w,則p的重量是wIsa(p, table)→Weight (p, 15) :若p是桌子,則p的重量是15 Weight(p1,w1)∧Weight(p2,w2)∧Smaller(w1,w2)→Lighter(p1,p2):如果p1的重量是w1、 p2的重量是w2、w1比w2小, 則p1比p2輕


    解釋學(xué)習(xí)EBG算法可概括為兩步:Safe-To-Stack(Obj1,obj2)解釋結(jié)構(gòu):


    解釋學(xué)習(xí)EBG算法可概括為兩步:2.獲取一般性的知識(shí):任務(wù):對(duì)上一步得到的解釋結(jié)構(gòu)進(jìn)行一般化的處理,從而得到關(guān)于目標(biāo)概念的一般性知識(shí)。方法:將常量換成變量,并把某些不重要的信息去掉,只保留求解問(wèn)題必須的關(guān)鍵信息。例如: Volume (O1, v1) ∧Density (O1, d1)∧*(v1, d1, w1)∧Isa(O2,table)∧ Smaller(w1,15) → Safe-To-Stack(Obj1,obj2)


    解釋學(xué)習(xí)EBG算法可概括為兩步: Safe-To-Stack(O1,O2)一般化解釋結(jié)構(gòu)以后求解類似問(wèn)題時(shí),就可以直接利用這個(gè)知識(shí)進(jìn)行求解,提到了系統(tǒng)求解問(wèn)題的效率。


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)系統(tǒng)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)7.其他


    神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)神經(jīng)生理學(xué)研究表明,人腦的神經(jīng)元既是學(xué)習(xí)的基本單位,同是也是記憶的基本單位。目前,關(guān)于人腦學(xué)習(xí)和記憶機(jī)制的研究有兩大學(xué)派:化學(xué)學(xué)派:認(rèn)為人腦經(jīng)學(xué)習(xí)所獲得的信息是記錄在某些生物大分子之上的。例如,蛋白質(zhì)、核糖核酸、神經(jīng)遞質(zhì),就像遺傳信息是記錄在DNA(脫氧核糖核酸)上一樣。突觸修正學(xué)派:認(rèn)為人腦學(xué)習(xí)所獲得的信息是分布在神經(jīng)元之間的突觸連接上的。


    神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)按照突觸修正學(xué)派的觀點(diǎn),人腦的學(xué)習(xí)和記憶過(guò)程實(shí)際上是一個(gè)在訓(xùn)練中完成的突觸連接權(quán)值的修正和穩(wěn)定過(guò)程。其中,學(xué)習(xí)表現(xiàn)為突觸連接權(quán)值的修正,記憶則表現(xiàn)為突觸連接權(quán)值的穩(wěn)定。突觸修正假說(shuō)已成為人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和記憶機(jī)制研究的心理學(xué)基礎(chǔ),與此對(duì)應(yīng)的權(quán)值修正學(xué)派也一直是人工神經(jīng)網(wǎng)絡(luò)研究的主流學(xué)派。突觸修正學(xué)派認(rèn)為,人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程就是一個(gè)不斷調(diào)整網(wǎng)絡(luò)連接權(quán)值的過(guò)程。按照學(xué)習(xí)規(guī)則,神經(jīng)學(xué)習(xí)可分為:Hebb學(xué)習(xí)、糾錯(cuò)學(xué)習(xí)、競(jìng)爭(zhēng)學(xué)習(xí)及隨機(jī)學(xué)習(xí)等。


    神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)Hebb學(xué)習(xí)Hebb學(xué)習(xí)的基本思想:如果神經(jīng)網(wǎng)絡(luò)中某一神經(jīng)元同另一直接與它連接的神經(jīng)元同時(shí)處于興奮狀態(tài),那么這兩個(gè)神經(jīng)元之間的連接強(qiáng)度將得到加強(qiáng),反之應(yīng)該減弱。Hebb學(xué)習(xí)對(duì)連接權(quán)值的調(diào)整可表示為:wij (t+1)表示對(duì)時(shí)刻 t 的權(quán)值修正一次后所得到的新的權(quán)值;η取正值,稱為學(xué)習(xí)因子,它取決于每次權(quán)值的修正量;xi(t)、xj(t)分別表示 t 時(shí)刻第 i 個(gè)和第 j 個(gè)神經(jīng)元的狀態(tài)。


    神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)糾錯(cuò)學(xué)習(xí)糾錯(cuò)學(xué)習(xí)的基本思想:利用神經(jīng)網(wǎng)絡(luò)的期望輸出與實(shí)際輸出之間的偏差作為連接權(quán)值調(diào)整的參考,并最終減少這種偏差。糾錯(cuò)學(xué)習(xí)是一種有導(dǎo)師的學(xué)習(xí)過(guò)程。最基本的誤差修正規(guī)則為:連接權(quán)值的變化與神經(jīng)元希望輸出和實(shí)際輸出之差成正比。其聯(lián)結(jié)權(quán)值的計(jì)算公式為: yj (t)為神經(jīng)元 j 的實(shí)際輸出; dj (t)為神經(jīng)元 j 的希望輸出;


    神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)競(jìng)爭(zhēng)學(xué)習(xí)基本思想:網(wǎng)絡(luò)中某一組神經(jīng)元相互競(jìng)爭(zhēng)對(duì)外界刺激模式響應(yīng)的權(quán)力,在競(jìng)爭(zhēng)中獲勝的神經(jīng)元,其連接權(quán)會(huì)向著對(duì)這一刺激模式競(jìng)爭(zhēng)更為有利的方向發(fā)展。隨機(jī)學(xué)習(xí)基本思想:結(jié)合隨機(jī)過(guò)程、概率和能量(函數(shù))等概念來(lái)調(diào)整網(wǎng)絡(luò)的變量,從而使網(wǎng)絡(luò)的目標(biāo)函數(shù)達(dá)到最大(或最?。?。他不僅可以接受能量函數(shù)減少(性能得到改善)的變化,而且還可以以某種概率分布接受使能量函數(shù)增大(性能變差)的變化。


    感知器學(xué)習(xí) 單層感知器學(xué)習(xí)算法 單層感知器學(xué)習(xí)的例子 BP網(wǎng)絡(luò)學(xué)習(xí) Hopfield網(wǎng)絡(luò)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)


    單層感知器學(xué)習(xí)實(shí)際上是一種基于糾錯(cuò)學(xué)習(xí)規(guī)則,采用迭代的思想對(duì)連接權(quán)值和閾值進(jìn)行不斷調(diào)整,直到滿足結(jié)束條件為止的學(xué)習(xí)算法。 假設(shè)X(k)和W(k)分別表示學(xué)習(xí)算法在第k次迭代時(shí)輸入向量和權(quán)值向量,為方便,把閾值θ作為權(quán)值向量W(k)中的第一個(gè)分量,對(duì)應(yīng)地把“-1”固定地作為輸入向量X(k)中的第一個(gè)分量。即W(k)和X(k)可分別表示如下: X(k)=[-1, x1(k), x2(k), …, xn(k)] W(k)=[θ(k),w1(k), w2(k), … ,wn(k)]即x0(k)=-1,w0(k)=θ(k)。 單層感知器學(xué)習(xí)是一種有導(dǎo)師學(xué)習(xí),它需要給出輸入樣本的期望輸出。 假設(shè)一個(gè)樣本空間可以被劃分為A、B兩類,定義: 功能函數(shù):若輸入樣本屬于A類,輸出為+1,否則其輸出為-1。 期望輸出:若輸入樣本屬于A類,期望輸出為+1,否則為-1。 單層感知器學(xué)習(xí)算法算法思想


    單層感知器學(xué)習(xí)算法可描述如下: (1) 設(shè)t=0,初始化連接權(quán)和閾值。即給wi(0)(i=1, 2, … ,n)及θ(0)分別賦予一個(gè)較小的非零隨機(jī)數(shù),作為初值。其中,wi(0)是第0次迭代時(shí)輸入向量中第i個(gè)輸入的連接權(quán)值;θ(0)是第0次迭代時(shí)輸出節(jié)點(diǎn)的閾值; (2) 提供新的樣本輸入xi(t)(i=1, 2, … , n)和期望輸出d(t); (3) 計(jì)算網(wǎng)絡(luò)的實(shí)際輸出: 單層感知器學(xué)習(xí)算法—算法描述


    (4) 若y(t)=d(t),不需要調(diào)整連接權(quán)值,轉(zhuǎn)(6)。否則,需要調(diào)整權(quán)值 (5) 調(diào)整連接權(quán)值其中,η是一個(gè)增益因子,用于控制修改速度,其值如果太大,會(huì)影響wi(t)的收斂性;如果太小,又會(huì)使wi(t)的收斂速度太慢; (6) 判斷是否滿足結(jié)束條件,若滿足,算法結(jié)束;否則,將t值加1,轉(zhuǎn)(2)重新執(zhí)行。這里的結(jié)束條件一般是指wi(t)對(duì)一切樣本均穩(wěn)定不變。 若輸入的兩類樣本是線性可分的,則該算法就一定會(huì)收斂。否則,不收斂。單層感知器學(xué)習(xí)算法—算法描述


    例 用單層感知器實(shí)現(xiàn)邏輯“與”運(yùn)算。 解:根據(jù)“與”運(yùn)算的邏輯關(guān)系,可將問(wèn)題轉(zhuǎn)換為:輸入向量: X1=[0, 0, 1, 1] X2=[0, 1, 0, 1]輸出向量: Y=[0, 0, 0, 1] 為減少算法的迭代次數(shù),設(shè)初始連接權(quán)值和閾值取值如下: w1(0)=0.5, w2(0)=0.7, θ(0)=0.6并取增益因子η=0.4。 算法的學(xué)習(xí)過(guò)程如下: 設(shè)兩個(gè)輸入為x1(0)=0和x2(0)=0,其期望輸出為d(0)=0,實(shí)際輸出為: y(0)=f(w1(0)x1(0)+ w2(0)x2(0)-θ(0)) =f(0.5*0+0.7*0-0.6)=f(-0.6)=0實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值。單層感知器學(xué)習(xí)的例子—學(xué)習(xí)例子(1/4)


    再取下一組輸入:x1(0)=0和x2(0)=1, 期望輸出d(0)=0,實(shí)際輸出: y(0)=f(w1(0) x1(0)+ w2(0) x2(0)-θ(0)) =f(0.5*0+0.7*1-0.6)=f(0.1)=1實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下: θ(1)=θ(0)+η(d(0)- y(0))*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(1)=w1(0)+η(d(0)- y(0))x1(0)=0.5+0.4*(0-1)*0=0.5 w2(1)=w2(0)+η(d(0)- y(0))x2(0)=0.7+0.4*(0-1)*1=0.3取下一組輸入:x1(1)=1和x2(1)=0,其期望輸出為d(1)=0,實(shí)際輸出為: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-θ(1)) =f(0.5*1+0.3*0-1)=f(-0.51)=0實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值。單層感知器學(xué)習(xí)的例子—學(xué)習(xí)例子(2/4)


    再取下一組輸入:x1(1)=1和x2(1)=1,其期望輸出為d(1)=1,實(shí)際輸出為: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-θ(1)) =f(0.5*1+0.3*1-1)=f(-0.2)=0 實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下: θ(2)=θ(1)+η(d(1)- y(1))*(-1)=1+0.4*(1-0)*(-1)=0.6 w1(2)=w1(1)+η(d(1)- y(1))x1(1)=0.5+0.4*(1-0)*1=0.9 w2(2)=w2(1)+η(d(1)- y(1))x2(1)=0.3+0.4*(1-0)*1=0.7 取下一組輸入:x1(2)=0和x2(2)=0,其期望輸出為d(2)=0,實(shí)際輸出為: y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值. 單層感知器學(xué)習(xí)的例子—學(xué)習(xí)例子(3/4)


    再取下一組輸入:x1(2)=0和x2(2)=1,期望輸出為d(2)=0,實(shí)際輸出為: y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1 實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下: θ(3)=θ(2)+η(d(2)- y(2))*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(3)=w1(2)+η(d(2)- y(2))x1(2)=0.9+0.4*(0-1)*0=0.9 w2(3)=w2(2)+η(d(2)- y(2))x2(2)=0.7+0.4*(0-1)*1=0.3 實(shí)際上,由與運(yùn)算的閾值條件可知,此時(shí)的閾值和連接權(quán)值以滿足結(jié)束條件,算法可以結(jié)束。 對(duì)此,可檢驗(yàn)如下: 對(duì)輸入:“0 0”有y=f(0.9*0+0.3*0-1)=f(-1)=0 對(duì)輸入:“0 1”有y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0 對(duì)輸入:“1 0”有y=f(0.9*1+0.3*0-1)=f(-0.1)=0 對(duì)輸入:“1 1”有y=f(0.9*1+0.3*1-1)=f(0.2)=1單層感知器學(xué)習(xí)的例子—學(xué)習(xí)例子(4/4)


    多層感知器可以解決非線性可分問(wèn)題,但其隱層神經(jīng)元的期望輸出卻不易給出。 而單層感知器學(xué)習(xí)是一種有導(dǎo)師指導(dǎo)的學(xué)習(xí)過(guò)程,因此其學(xué)習(xí)算法無(wú)法直接用于多層感知器。 由于多層感知器和BP網(wǎng)絡(luò)都屬于前向網(wǎng)絡(luò),并能較好解決多層前饋網(wǎng)絡(luò)的學(xué)習(xí)問(wèn)題. 因此,可用BP學(xué)習(xí)來(lái)解決多層感知器學(xué)習(xí)問(wèn)題。多層感知器學(xué)習(xí)問(wèn)題


    BP網(wǎng)絡(luò)學(xué)習(xí)的網(wǎng)絡(luò)基礎(chǔ)是具有多層前饋結(jié)構(gòu)的BP網(wǎng)絡(luò)。為討論方便,采用如下圖所示的三層BP網(wǎng)絡(luò)。BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)—1. 三層BP網(wǎng)絡(luò)


    對(duì)上述三層BP網(wǎng)絡(luò),分別用I,j,k表示輸入層、隱含層、輸出層節(jié)點(diǎn),且以以下符號(hào)表示: Oi, Oj, Ok分別表示輸入層節(jié)點(diǎn)i、隱含層節(jié)點(diǎn)j,輸出層節(jié)點(diǎn)k的輸出; Ii , Ij ,Ik,分別表示輸入層節(jié)點(diǎn)i、隱含層節(jié)點(diǎn)j,輸出層節(jié)點(diǎn)k的輸入; wij, wjk分別表示從輸入層節(jié)點(diǎn)i到隱含層節(jié)點(diǎn)j,從隱含層節(jié)點(diǎn)j輸出層節(jié)點(diǎn)k的輸入節(jié)點(diǎn)j的連接權(quán)值; θj 、 θk分別表示隱含層節(jié)點(diǎn)j、輸出層節(jié)點(diǎn)k的閾值; 對(duì)輸入層節(jié)點(diǎn)i有: BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)—2. 網(wǎng)絡(luò)節(jié)點(diǎn)的輸入/輸出關(guān)系(1/2)(7.1)


    對(duì)輸出層節(jié)點(diǎn)有:(7.5)(7.4) 對(duì)隱含層節(jié)點(diǎn)有:(7.2)(7.3) BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)—2. 網(wǎng)絡(luò)節(jié)點(diǎn)的輸入/輸出關(guān)系(2/2)


    BP網(wǎng)絡(luò)學(xué)習(xí)的方式BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)—BP網(wǎng)絡(luò)的激發(fā)函數(shù)和學(xué)習(xí)方式BP網(wǎng)絡(luò)的激發(fā)函數(shù)(7.3) 通常采用連續(xù)可微的S函數(shù),包括單極


    BP網(wǎng)絡(luò)學(xué)習(xí)過(guò)程是一個(gè)對(duì)給定訓(xùn)練模式,利用傳播公式,沿著減小誤差的方向不斷調(diào)整網(wǎng)絡(luò)聯(lián)結(jié)權(quán)值和閾值的過(guò)程。 設(shè)樣本集中的第r個(gè)樣本,其輸出層結(jié)點(diǎn)k的期望輸出用drk表示,實(shí)際輸出用yrk表示。其中,drk由訓(xùn)練模式給出,yrk由7.5式計(jì)算得出。即有 yrk = Ork 如果僅針對(duì)單個(gè)輸入樣本,其實(shí)際輸出與期望輸出的誤差為 BP算法的傳播公式—誤差 上述誤差定義是針對(duì)單個(gè)訓(xùn)練樣本的誤差計(jì)算公式,它適用于網(wǎng)絡(luò)的順序?qū)W習(xí)方式。若采用批處理學(xué)習(xí)方式,需要定義其總體誤差。假設(shè)樣本集中有R個(gè)樣本,則對(duì)整個(gè)樣本集的總體誤差定義為(7.6)(7.7)


    針對(duì)順序?qū)W習(xí)方式,其聯(lián)結(jié)權(quán)值的調(diào)整公式為 BP算法的傳播公式—權(quán)值變化量(1/2)(7.8)(7.9)式中,?為增益因子,取[0, 1]區(qū)間的一個(gè)正數(shù),其取值與算法的收斂速度有關(guān); 由下式計(jì)算式中,wjk (t)和wjk(t+1)分別是第t次迭代和t+1次迭代時(shí),從結(jié)點(diǎn)j到結(jié)點(diǎn)k的聯(lián)結(jié)權(quán)值;?wjk是聯(lián)結(jié)權(quán)值的變化量。 為了使聯(lián)結(jié)權(quán)值能沿著E的梯度下降的方向逐漸改善,網(wǎng)絡(luò)逐漸收斂,權(quán)值變化量?wjk的計(jì)算公式如下:(7.10)


    根據(jù)7.2式,可得到輸出層節(jié)點(diǎn)k的Ik為 BP算法的傳播公式—權(quán)值變化量(1/2)(7.11)(7.12)令局部梯度(7.13)對(duì)該式求偏導(dǎo)數(shù)有將7.10式、7.11式和7.12式代入7.9式有 對(duì)δk的計(jì)算,須區(qū)分k是輸出層上還是隱含層上的結(jié)點(diǎn)。下面分別討論。


    如果結(jié)點(diǎn)k是輸出層上的結(jié)點(diǎn),則有Ok=yk,因此 BP算法的傳播公式—節(jié)點(diǎn)k是輸出層節(jié)點(diǎn)(1/3)(7.14)(7.15)由7.6式,有即而(7.16)


    將7.15式和7.16式代入7.14式,有BP算法的傳播公式—節(jié)點(diǎn)k是輸出層節(jié)點(diǎn)(2/3)(7.17)(7.15)由于f’(Ik) = f(Ik)[1-f(Ik)],且f(Ik)=yk,因此有再將7.18式代入7.13式,有根據(jù)7.8,對(duì)輸出層有(7.20)(7.18)


    如果k不是輸出層結(jié)點(diǎn).它表示聯(lián)結(jié)權(quán)值是作用于隱含層上的結(jié)點(diǎn),此時(shí),有?k=?j ,?j按下式計(jì)算 BP算法的傳播公式—節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(1/3)(7.22)由7.3式,Oj=f (Ij-θj),因此有式中,(7.21)是一個(gè)隱函數(shù)求導(dǎo)問(wèn)題,其推導(dǎo)過(guò)程為


    由7.12式有 BP算法的傳播公式—節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(2/3)(7.24)將7.23式代入7.22式,有 它說(shuō)明,低層結(jié)點(diǎn)的?值是通過(guò)上一層結(jié)點(diǎn)的?值來(lái)計(jì)算的。這樣,我們就可以先計(jì)算出輸出層上的?值,然后把它返回到較低層上,并計(jì)算出各較低層上結(jié)點(diǎn)的?值。 由于f ’(Ij) = f(Ij)[ 1-f (Ij) ],故由7.24可得(7.23)(7.25)


    再將7.25式代入7.13式,并將其轉(zhuǎn)化為隱函數(shù)的變化量,有7.3.2 BP算法的傳播公式—節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(3/3)再由7.1式和7.3式,有根據(jù)7.8,對(duì)隱含層有(7.26)(7.28)(7.27)


    對(duì)三層BP網(wǎng)絡(luò),設(shè)wij是輸入層到隱層,wjk是隱層到輸出層的聯(lián)結(jié)權(quán)值;R是樣本個(gè)數(shù),其計(jì)數(shù)器為r;T是訓(xùn)練過(guò)程的最大迭代數(shù),其計(jì)數(shù)器為t。 (1) 初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù):將wij、wjk、θj、θk均賦以較小的隨機(jī)數(shù);設(shè)置η為[0,1]區(qū)間的數(shù);置訓(xùn)練樣本計(jì)數(shù)器r=0,誤差E=0、誤差閾值ε為很小的正數(shù)。 (2) 隨機(jī)輸入一個(gè)訓(xùn)練樣本,r=r+1,t=0。 (3) 按7.1--7.5式計(jì)算隱層神經(jīng)元的狀態(tài)和輸出層每個(gè)節(jié)點(diǎn)的實(shí)際輸出yk,按7.6式計(jì)算該樣本的誤差E。 BP網(wǎng)絡(luò)學(xué)習(xí)算法算法描述


    (4) 檢查E >ε? 若是,執(zhí)行下一步;否則,轉(zhuǎn)(8)。 (5) t=t+1。 (6) 檢查t ≤ T ?若是,執(zhí)行下一步;否則,轉(zhuǎn)(8)。 (7) 按7.18式計(jì)算輸出層結(jié)點(diǎn)k的δk,按7.25式計(jì)算隱層結(jié)點(diǎn)j的δj,按 7.20式計(jì)算wjk(t+1),按 7.28式計(jì)算wij(t+1),返回(3)。其中,對(duì)閾值按聯(lián)結(jié)權(quán)值的學(xué)習(xí)方式修正,即把閾值設(shè)想為神經(jīng)元的聯(lián)結(jié)權(quán)值,并假定其輸入信號(hào)值總是為1。 (8) 檢查r = R ? 若是,執(zhí)行下一步;否則,轉(zhuǎn)(2)。 (9) 結(jié)束。BP網(wǎng)絡(luò)學(xué)習(xí)算法算法描述


    BP網(wǎng)絡(luò)學(xué)習(xí)算法算法流程隨機(jī)輸入一個(gè)訓(xùn)練樣本,置r=r+1,t=0初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù)wij,wjk,,θj,θk,η,ε,R,T,置E=0,r=0 對(duì)輸入樣本,計(jì)算該樣本的每一個(gè)yk,計(jì)算該樣本的誤差EE>ε? t=t+1t≤T ?計(jì)算輸出層結(jié)點(diǎn)k的δk修正各層的wjk(t),wij(t)E>ε? 結(jié)束是否是否否是


    BP網(wǎng)絡(luò)模型是目前使用較多的一種神經(jīng)網(wǎng)絡(luò),其主要優(yōu)、缺點(diǎn)如下。 優(yōu)點(diǎn) (1)算法的優(yōu)點(diǎn)是算法推導(dǎo)清楚,學(xué)習(xí)精度較高; (2)從理論上說(shuō),多層前饋網(wǎng)絡(luò)可學(xué)會(huì)任何可學(xué)習(xí)的東西; (3)經(jīng)過(guò)訓(xùn)練后的BP網(wǎng)絡(luò),運(yùn)行速度極快,可用于實(shí)時(shí)處理。 缺點(diǎn) (1)由于其數(shù)學(xué)基礎(chǔ)是非線性優(yōu)化問(wèn)題,因此可能陷入局部最小區(qū)域; (2)算法收斂速度很慢,通常需要數(shù)千步或更長(zhǎng),甚至還可能不收斂; (3)網(wǎng)絡(luò)中隱含結(jié)點(diǎn)的設(shè)置無(wú)理論指導(dǎo)。 上述缺點(diǎn)的解決辦法 對(duì)于局部最小區(qū)域問(wèn)題,通常需要采用模擬退火算法或遺傳算法。 對(duì)于算法收斂慢的問(wèn)題,其主要原因在于誤差是時(shí)間的復(fù)雜非線性函數(shù)。為提高算法收斂速度,可采用逐次自動(dòng)調(diào)整增益因子?,或修改激活函數(shù)f(x)的方法來(lái)解決。BP網(wǎng)絡(luò)學(xué)習(xí)的討論


    Hopfield網(wǎng)絡(luò)學(xué)習(xí) Hopfield網(wǎng)絡(luò)學(xué)習(xí)的過(guò)程實(shí)際上是一個(gè)從網(wǎng)絡(luò)初始狀態(tài)向其穩(wěn)定狀態(tài)過(guò)渡的過(guò)程。而網(wǎng)絡(luò)的穩(wěn)定性又是通過(guò)能量函數(shù)來(lái)描述的。這里主要針對(duì)離散Hopfield網(wǎng)絡(luò)討論其能量函數(shù)和學(xué)習(xí)算法。Hopfield網(wǎng)絡(luò)的能量函數(shù)Hopfield網(wǎng)絡(luò)學(xué)習(xí)算法


    式中,n是網(wǎng)絡(luò)中的神經(jīng)元個(gè)數(shù),wij是神經(jīng)元i和神經(jīng)元j之間的連接權(quán)值,且有wij=wji; vi和vj分別是神經(jīng)元i和神經(jīng)元j的輸出;θi是神經(jīng)元i的閾值。 可以證明,對(duì)Hopfield網(wǎng)絡(luò),無(wú)論其神經(jīng)元的狀態(tài)由“0”變?yōu)椤?”,還是由“1”變?yōu)椤?”,始終有其網(wǎng)絡(luò)能量的變化: ΔE<0Hopfield的能量函數(shù)—能量函數(shù)定義及性質(zhì) 能量函數(shù)用于描述Hopfield網(wǎng)絡(luò)的穩(wěn)定性。其定義為: 對(duì)網(wǎng)絡(luò)能量變化的這一結(jié)論,我們可以從網(wǎng)絡(luò)能量的構(gòu)成形式進(jìn)行分析。 如果假設(shè)某一時(shí)刻網(wǎng)絡(luò)中僅有神經(jīng)元k的輸出發(fā)生了變化,而其它神經(jīng)元的輸出沒(méi)有變化,則可把上述能量函數(shù)分作三部分來(lái)討論。其中,第一部分是i=1,…,k-1;第二部分是i=k;第三部分是i=k+1,…,n。


    Hopfield的能量函數(shù)—能量函數(shù)定義及性質(zhì)(2/7)在這種形式中,可以引起網(wǎng)絡(luò)能量變化的僅有公式中的如下部分:i=1,…,k-1 ,j≠k,這部分能量與k的輸出無(wú)關(guān)i=1,…,k-1 ,j=k,這部分能量與k的輸出有關(guān)i=k ,j≠k,這部分能量與k的輸出有關(guān)i=k+1,…,n ,j≠k,這部分能量與k的輸出無(wú)關(guān)i=k+1,…,n ,j≠k,這部分能量與k的輸出有關(guān)


    又由于即:再根據(jù)連接權(quán)值的對(duì)稱性,即wij=wji, 有: BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)—2. 網(wǎng)絡(luò)節(jié)點(diǎn)的輸入/輸出關(guān)系(3/2)


    Hopfield的能量函數(shù)—能量函數(shù)定義及性質(zhì)(4/7)即可以引起網(wǎng)絡(luò)能量變化的部分為 為了更清晰地描述網(wǎng)絡(luò)能量的變化,我們引入時(shí)間概念。假設(shè)t表示當(dāng)前時(shí)刻,t+1表示下一時(shí)刻,時(shí)刻t和t+1的網(wǎng)絡(luò)能量分別為E(t)和E(t+1),神經(jīng)元i和神經(jīng)元j在時(shí)刻t和t+1的輸出分別為vi(t)、vj(t)和vj(t+1)、vj(t+1)。由時(shí)刻t到t+1網(wǎng)絡(luò)能量的變化為: ΔE= E(t+1) - E(t) 當(dāng)網(wǎng)絡(luò)中僅有神經(jīng)元k的輸出發(fā)生變化,且變化前后分別為t和t+1,則有


    當(dāng)神經(jīng)元k的輸出vk由1變0時(shí),有此時(shí),由于神經(jīng)元k的輸出為1,即有:因此: Hopfield的能量函數(shù)—能量函數(shù)定義及性質(zhì)(5/7)


    當(dāng)神經(jīng)元k的輸出vk由0變1時(shí),有此時(shí),由于神經(jīng)元k的輸出為0,即有:因此: Hopfield的能量函數(shù)—能量函數(shù)定義及性質(zhì)(6/7)


    可見(jiàn),無(wú)論神經(jīng)元k的狀態(tài)由“1”變?yōu)椤?” 時(shí),還是由“0”變?yōu)椤?” 時(shí),都總有: 它說(shuō)明離散Hopfield網(wǎng)絡(luò)在運(yùn)行中,其能量函數(shù)總是在不斷降低的,最終將趨于穩(wěn)定狀態(tài)。 ΔEk<0 由于神經(jīng)元k是網(wǎng)絡(luò)中的任一神經(jīng)元,因此它具有一般性,即對(duì)網(wǎng)絡(luò)中的任意神經(jīng)元都有: ΔE<0 Hopfield的能量函數(shù)—能量函數(shù)定義及性質(zhì)(7/7)


    例 如圖所示的三個(gè)節(jié)點(diǎn)的Hopfield網(wǎng)絡(luò),若給定的初始狀態(tài)為: V0={1,0,1}各節(jié)點(diǎn)之間的聯(lián)結(jié)權(quán)值為: w12=w21=1,w13=w31=-2,w23=w32=3各節(jié)點(diǎn)的閾值為 θ1=-1, θ2=2, θ3=1 請(qǐng)計(jì)算在此狀態(tài)下的網(wǎng)絡(luò)能量。 解:E=-(1/2)(w12v1v2+w13v1v3+w21v2v1+w23v2v3+w31v3v1+w32v3v2) + θ1v1+ θ2v2+ θ3v3 = -(w12v1v2+w13v1v3+w23v2v3)+ θ1v1+ θ2v2+ θ3v3 =-(1×1×0+(-2)×1×1+3×0×1)+(-1) ×1+2×0+1×1 =2Q1Q2Q3v1v2v3w12w13w23Hopfield的能量函數(shù)—計(jì)算網(wǎng)絡(luò)能量的例子


    (1) 設(shè)置聯(lián)結(jié)權(quán)值其中,xis 為S型樣例(即記憶模式)的第i個(gè)分量,它可以為1或0(或-1),樣例類別數(shù)為m,節(jié)點(diǎn)數(shù)為n。 (2) 對(duì)未知類別的樣例初始化其中,yi(t)為節(jié)點(diǎn)i時(shí)刻t的輸出,yi(0)是節(jié)點(diǎn)的初值;xi為輸入樣本的第i個(gè)分量。 (3) 迭代運(yùn)算其中,函數(shù)f為閾值型。重復(fù)這一步驟,直到新的迭代不能再改變節(jié)點(diǎn)的輸出為止,即收斂為止。這時(shí),各節(jié)點(diǎn)的輸出與輸入樣例達(dá)到最佳匹配。否則 (4) 轉(zhuǎn)第(2)步繼續(xù)。Hopfield網(wǎng)絡(luò)學(xué)習(xí)算法


    神經(jīng)學(xué)習(xí)單層感知器算法:感知器網(wǎng)絡(luò):?jiǎn)螌忧跋蚓W(wǎng)絡(luò)學(xué)習(xí)算法:糾錯(cuò)學(xué)習(xí)方法用梯度下降法調(diào)整網(wǎng)絡(luò)連接權(quán)值,使總的輸出誤差向減小的方向變化BP算法:反向傳播算法多層感知器網(wǎng)絡(luò)(BP網(wǎng)絡(luò))學(xué)習(xí)算法收斂速度非常慢,且隨著訓(xùn)練樣例維數(shù)增加,網(wǎng)絡(luò)性能變差。


    內(nèi)容提要第七章:機(jī)器學(xué)習(xí)1.機(jī)器學(xué)習(xí)的基本概念2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu)3.歸納學(xué)習(xí)4.類比學(xué)習(xí)5.解釋學(xué)習(xí)6.神經(jīng)學(xué)習(xí)7.其他


    其他機(jī)器學(xué)習(xí)方法其他機(jī)器學(xué)習(xí)方法遷移學(xué)習(xí):將在先前任務(wù)中學(xué)到的知識(shí)或技能應(yīng)用于一個(gè)新的任務(wù)或新的領(lǐng)域增強(qiáng)機(jī)器學(xué)習(xí):從變化環(huán)境中學(xué)習(xí)蘊(yùn)含在環(huán)境中的知識(shí)流形機(jī)器學(xué)習(xí):把一組在高維空間中的數(shù)據(jù)在低維空間中重新表示半監(jiān)督機(jī)器學(xué)習(xí):結(jié)合標(biāo)記和非標(biāo)記樣本多實(shí)例機(jī)器學(xué)習(xí):一個(gè)對(duì)象可能同時(shí)有多個(gè)描述Ranking機(jī)器學(xué)習(xí):獲得關(guān)于檢索中“喜歡”順序的模型數(shù)據(jù)流機(jī)器學(xué)習(xí):從數(shù)據(jù)流中發(fā)現(xiàn)知識(shí)……


    版權(quán)聲明感謝您下載辦圖網(wǎng)平臺(tái)上提供的PPT作品,為了您和辦圖網(wǎng)以及原創(chuàng)作者的利益,請(qǐng)勿復(fù)制、傳播、銷售,否則將承擔(dān)法律責(zé)任!辦圖網(wǎng)將對(duì)作品進(jìn)行維權(quán),按照傳播下載次數(shù)進(jìn)行十倍的索取賠償!1.在辦圖網(wǎng)出售的PPT模板是免版稅類(RF:Royalty-Free)正版受《中國(guó)人民共和國(guó)著作法》和《世界版權(quán)公約》的保護(hù),作品的所有權(quán)、版權(quán)和著作權(quán)歸辦圖網(wǎng)所有,您下載的是PPT模板素材的使用權(quán)。2.不得將辦圖網(wǎng)的PPT模板、PPT素材,本身用于再出售,或者出租、出借、轉(zhuǎn)讓、分銷、發(fā)布或者作為禮物供他人使用,不得轉(zhuǎn)授權(quán)、出賣、轉(zhuǎn)讓本協(xié)議或者本協(xié)議中的權(quán)利。更多精品PPT模板:www.888ppt.com


    課程結(jié)束


    點(diǎn)擊查看更多

    工圖網(wǎng)提供湘潭大學(xué)-人工智能課件-機(jī)器學(xué)習(xí)ppt供會(huì)員免費(fèi)下載。更多精彩黨課PPT素材,盡在工圖網(wǎng)。 

    人工只能PPT 說(shuō)課 說(shuō)課稿 說(shuō)課比賽 課件 Array

    本網(wǎng)站所有作品均是用戶自行上傳分享,僅供網(wǎng)友學(xué)習(xí)交流。若您的權(quán)利被侵害,請(qǐng)聯(lián)系客服。
    • 價(jià)格 會(huì)員免費(fèi)
    • 編號(hào) 11186342
    • 大小 11.65MB
    • 頁(yè)數(shù) 共76頁(yè)
    聲明:工圖網(wǎng)僅對(duì)作品中獨(dú)創(chuàng)性部分享有權(quán)利。對(duì)作品中含有的國(guó)旗、國(guó)徽等政治圖案不享有權(quán)利,僅作為作品整體效果的示例展示,禁止商用。另外您必須遵循相關(guān)法律法規(guī)規(guī)定的使用范圍和使用方式,禁止以任何形式歪曲、篡改。
    投訴
    猜你喜歡

    2021年藍(lán)色人工智能科技PPT模板包含

    人工智能工業(yè)機(jī)器人信息化高科技通用PPT包含

    原創(chuàng)AI人工智能云計(jì)算大數(shù)據(jù)簡(jiǎn)介ppt模板-版權(quán)可商用包含

    科技風(fēng)人工智能工作匯報(bào)PPT模板包含

    原創(chuàng)物聯(lián)網(wǎng)AI人工智能云計(jì)算大數(shù)據(jù)簡(jiǎn)介-版權(quán)可商用包含

    科技感AI人工智能發(fā)布會(huì)PPT模板包含

    您當(dāng)前未開(kāi)通企業(yè)VIP 加入企業(yè)VIP即可獲取商用授權(quán)書 立即加入企業(yè)VIP
    您當(dāng)前未填寫企業(yè)信息 完善企業(yè)信息即可下載授權(quán)書 前往填寫信息
    收藏成功
    升級(jí)VIP后可收藏更多內(nèi)容
    繼續(xù)瀏覽 加入VIP
    工圖網(wǎng)VIP
    全站資源終身免費(fèi)下載
    立即加入
    今天下載太多文件了
    請(qǐng)明天再來(lái)
    我再逛逛 升級(jí)VIP繼續(xù)下載

    舉報(bào)作品

    該作品違反相關(guān)法律規(guī)范
    侵權(quán)/盜版問(wèn)題

    請(qǐng)?jiān)敿?xì)描述并提供原作品鏈接

    其他原因

    請(qǐng)?jiān)敿?xì)描述舉報(bào)原因

    提交

    工作日:09:00-18:00

    工作日:09:00-18:00

    客服熱線:400-1600-950

    Ctrl+D
    收藏工圖網(wǎng)

    建議反饋

    聯(lián)系方式

    提交
    微信登錄 QQ登錄

    我已閱讀并接受《用戶協(xié)議》
    工圖網(wǎng)