人工智能:第四章 计算智能(1)
第四章 計算智能(1)
教學內容:本章討論計算智能所涉及的領域和范圍,計算智能的含義及它與傳統的人工智能的區別。介紹人工神經網絡的由來、特性、結構、模型和算法;神經網絡的表示和推理。簡要地介紹模糊數學的基本概念、運算法則、模糊邏輯推理和模糊判決等。
教學重點:計算智能;人工神經網絡的結構、模型和算法,以及表示和推理。
教學難點:人工神經網絡的結構、算法和推理;模糊數學的運算法則和模糊邏輯推理。
教學方法:課堂教學為主。適當提問,加深學生對概念的理解。
教學要求:通過對本章的學習,使學生掌握人工神經網絡的結構、模型和算法,了解計算智能所涉及的領域和范圍,了解人工神經網絡的特性、表示和推理,了解模糊數學的基本概念、運算法則、模糊邏輯推理和模糊判決等。
4.1概述
教學內容:本節介紹計算智能所涉及的領域和范圍,計算智能的含義及其與傳統人工智能的區別。貝茲德克提出的“ABC”,及它與神經網絡(NN)、模式識別(PR)和智能(I)之間的關系。
教學重點:計算智能的含義及其與傳統的人工智能的區別。
教學難點:“ABC”及其與神經網絡(NN)、模式識別(PR)和智能(I)之間的關系。
教學方法:課堂教學。
教學要求:掌握計算智能的含義,了解計算智能與傳統的人工智能有何區別。了解貝茲德克提出的“ABC”及其與神經網絡(NN)、模式識別(PR)和智能(I)之間的關系。
信息科學與生命科學的相互交叉、相互滲透和相互促進是現代科學技術發展的一個顯著特點。
計算智能涉及神經網絡、模糊邏輯、進化計算和人工生命等領域,它的研究和發展正是反映了當代科學技術多學科交叉與集成的重要發展趨勢。
把神經網絡(NN)歸類于人工智能(AI)可能不大合適,而歸類于計算智能(CI)更能說明問題實質。進化計算、人工生命和模糊邏輯系統的某些課題,也都歸類于計算智能。
計算智能取決于制造者(manufacturers)提供的數值數據,不依賴于知識;另一方面,人工智能應用知識精品(knowledge tidbits)。人工神經網絡應當稱為計算神經網絡。
第一個對計算智能的定義是由貝茲德克(Bezdek)于1992年提出的。
盡管計算智能與人工智能的界限并非十分明顯,然而討論它們的區別和關系是有益的。馬克斯(Marks)在1993年提到計算智能與人工智能的區別,而貝茲德克則關心模式識別(PR與生物神經網絡(BNN)、人工神經網絡(ANN)和計算神經網絡(CNN)的關系,以及模式識別與其它智能的關系。忽視ANN與CNN的差別可能導致對模式識別中神經網絡模型的混淆、誤解、誤表示和誤用。
提問:計算智能與人工智能的區別和關系如何。
貝茲德克對這些相關術語給予一定的符號和簡要說明或定義。
他給出有趣的ABC:
A-Artificial, 表示人工的(非生物的),即人造的
B-Biological, 表示物理的+化學的+(??)=生物的
C-Computational, 表示數學+計算機
圖4.1表示ABC及其與神經網絡(NN)、模式識別(PR)和智能(I)之間的關系。
圖4.1 ABC的交通關系圖
計算智能是一種智力方式的低層認知,它與人工智能的區別只是認知層次從中層下降至低層而已。中層系統含有知識(精品),低層系統則沒有。
當一個系統只涉及數值(低層)數據,含有模式識別部分,不應用人工智能意義上的知識,而且能夠呈現出:
(1)計算適應性;
(2)計算容錯性;
(3)接近人的速度;
(4)誤差率與人相近,
則該系統就是計算智能系統。
當一個智能計算系統以非數值方式加上知識(精品)值,即成為人工智能系統。
提問:計算智能的主要特征是什么?
4.2神經計算
教學內容:本節將介紹人工神經網絡的由來、特性、結構、模型和算法;然后討論神經網絡的表示和推理。這些內容是神經網絡的基礎知識。神經計算是以神經網絡為基礎的計算。
教學重點:人工神經網絡的結構、模型和算法;神經網絡的表示和推理。
教學難點:人工神經網絡的結構和算法及其表示和推理。
教學方法:課堂教學為主,并適當提問、收集學生學習情況。
教學要求:掌握人工神經網絡的結構、模型和算法,了解人工神經網絡的由來和特性,一般了解神經網絡的表示和推理方法。
4.2.1 人工神經網絡研究的進展
1960年威德羅和霍夫率先把神經網絡用于自動控制研究。
60年代末期至80年代中期,神經網絡控制與整個神經網絡研究一樣,處于低潮。
80年代后期以來,隨著人工神經網絡研究的復蘇和發展,對神經網絡控制的研究也十分活躍。這方面的研究進展主要在神經網絡自適應控制和模糊神經網絡控制及其在機器人控制中的應用上。
人工神經網絡的特性:
(1)并行分布處理 神經網絡具有高度的并行結構和并行實現能力,因而能夠有較好的耐故障能力和較快的總體處理能力。
(2)非線性映射 神經網絡具有固有的非線性特性,這源于其近似任意非線性映射(變換)能力。
(3)通過訓練進行學習 神經網絡是通過所研究系統過去的數據記錄進行訓練的。一個經過適當訓練的神經網絡具有歸納全部數據的能力。
(4)適應與集成 神經網絡能夠適應在線運行,并能同時進行定量和定性操作。神經網絡的強適應和信息熔合能力使得網絡過程可以同時輸入大量不同的控制信號,解決輸入信息間的互補和冗余問題,并實現信息集成和熔合處理。
(5)硬件實現 神經網絡不僅能夠通過軟件而且可借助軟件實現并行處理。近年來,一些超大規模集成電路實現硬件已經問世,而且可從市場上購到。
4.2.2 人工神經網絡的結構
神經網絡的結構是由基本處理單元及其互連方法決定的。
圖4.2所示神經元單元由多個輸入,i=1,2,...,n和一個輸出y組成。中間狀態由輸入信號的權和表示,而輸出為:
圖4.2 神經元模型
式中,為神經元單元的偏置(閾值),為連接權系數(對于激發狀態,取正值,對于抑制狀態,取負值),n為輸入信號數目, 為神經元輸出,t為時間,f(_)為輸出變換函數,有時叫做激勵函數,往往采用0和1二值函數或S形函數,見圖4.3,這三種函數都是連續和非線性的。一種二值函數可由下式表示:
如圖4.3(a)所示。一種常規的S形函數見圖4.3(b),可由下式表示:
常用雙曲正切函數(見圖4.3(c))來取代常規S形函數,因為S形函數的輸出均為正值,而雙曲正切函數的輸出值可為正或負。雙曲正切函數如下式所示:
圖4.3 神經元中的某些變換(激勵)函數
提問:神經網絡有哪幾種激勵函數?
1、人工神經網絡的基本特性和結構
人工神經網絡由神經元模型構成;這種由許多神經元組成的信息處理網絡具有并行分布結構。每個神經元具有單一輸出,并且能夠與其它神經元連接;存在許多(多重)輸出連接方法,每種連接方法對應一個連接權系數。嚴格地說,人工神經網絡是一種具有下列特性的有向圖:
(1)對于每個節點i存在一個狀態變量;
(2)從節點j至節點i,存在一個連接權系統數;
(3)對于每個節點i,存在一個閾值;
(4)對于每個節點i,定義一個變換函數;對于最一般的情況,此函數取形式。
人工神經網絡的結構基本上分為兩類:遞歸(反饋)網絡和前饋網絡。
(1)遞歸網絡
在遞歸網絡中,多個神經元互連以組織一個互連神經網絡,如圖4.4所示。有些神經元的輸出被反饋至同層或前層神經元。因此,信號能夠從正向和反向流通。Hopfield網絡,Elmman網絡和Jordan網絡是遞歸網絡有代表性的例子。遞歸網絡又叫做反饋網絡。
圖4.4 遞歸(反饋)網絡 圖4.5 前饋(多層)網絡
圖4.4中,表示節點的狀態,為節點的輸入(初始)值,為收斂后的輸出值,i=1,2,...,n。
(2)前饋網絡
前饋網絡具有遞階分層結構,由一些同層神經元間不存在互連的層級組成。從輸入層至輸出層的信號通過單向連接流通;神經元從一層連接至下一層,不存在同層神經元間的連接,如圖4.5所示。圖中,實線指明實際信號流通而虛線表示反向傳播。前饋網絡的例子有多層感知器(MLP)、學習矢量量化(LVQ)網絡、小腦模型聯接控制(CMAC)網絡和數據處理方法(GMDH)網絡等。
2、人工神經網絡的主要學習算法
神經網絡主要通過指導式(有師)學習算法和非指導式(無師)學習算法。此外,還存在第三種學習算法,即強化學習算法;可把它看做有師學習的一種特例。
(1)有師學習
有師學習算法能夠根據期望的和實際的網絡輸出(對應于給定輸入)間的差來調整神經元間連接的強度或權。因此,有師學習需要有個老師或導師來提供期望或目標輸出信號。有師學習算法的例子包括Delta規則、廣義Delta規則或反向傳播算法以及LVQ算法等。
(2)無師學習
無師學習算法不需要知道期望輸出。在訓練過程中,只要向神經網絡提供輸入模式,神經網絡就能夠自動地適應連接權,以便按相似特征把輸入模式分組聚集。無師學習算法的例子包括Kohonen算法和Carpenter-Grossberg自適應諧振理論(ART)等。
(3)強化學習
如前所述,強化(增強)學習是有師學習的特例。它不需要老師給出目標輸出。強化學習算法采用一個“評論員”來評價與給定輸入相對應的神經網絡輸出的優度(質量因數)。強化學習算法的一個例子是遺傳算法(GA)。
提問:神經網絡主要有哪二類學習算法?
4.2.3 人工神經網絡的典型模型
根據伊林沃思(W.T.Illingworth)提供的綜合資料,最典型的ANN模型(算法)及其學習規則和應用領域如表4.2所列(見表4.2)。
4.2.4 基于神經網絡的知識表示與推理
1、基于神經網絡的知識表示
基于神經網絡系統中知識的表示方法與傳統人工智能系統中所用的方法(如產生式、框架、語義網絡等)完全不同,傳統人工智能系統中所用的方法是知識的顯式表示,而神經網絡中的知識表示是一種隱式的表示方法。在這里,知識并不像在產生式系統中那樣獨立地表示為每一條規則,而是將某一問題的若干知識在同一網絡中表示。
例:對圖4.6所示的異或邏輯的神經網絡來說,其鄰接矩陣為:
圖4.6 異或邏輯的神經網絡表示
如果用產生式規則描述,則該網絡代表下述四條規則:
IF x1=0 AND x2=0 THEN y=0
IF x1=0 AND x2=1 THEN y=1
IF x1=1 AND x2=0 THEN y=1
IF x1=1 AND x2=1 THEN y=0
提問:神經網絡中的知識表示采用了什么樣的表示方法? 結合這個例子回答。
2、基于神經網絡的推理
基于神經網絡的推理是通過網絡計算實現的。把用戶提供的初始證據用作網絡的輸入,通過網絡計算最終得到輸出結果。
一般來說網絡推理有正向網絡推理,其步驟如下:
(1)把已知數據輸入網絡輸入層的各個節點。
(2)利用特性函數分別計算網絡中各層的輸出。計算中,前一層的輸出作為后一層有關節點的輸入,逐層進行計算,直至計算出輸出層的輸出值。
(3)用閾值函數對輸出層的輸出進行判定,從而得到輸出結果。
?
4.3 模糊計算
教學內容:本節簡要地介紹模糊數學的基本概念、運算法則、模糊邏輯推理和模糊判決等。這些內容構成模糊邏輯的基礎知識。模糊計算就是以模糊邏輯為基礎的計算。
教學重點:模糊數學的模糊邏輯推理和模糊判決。
教學難點:模糊數學的運算法則和模糊邏輯推理。
教學方法:課堂教學為主,注意結合例子進行講解。
教學要求:掌握模糊數學的基本概念、運算法則、模糊邏輯推理方法。
4.3.1 模糊集合、模糊邏輯及其運算
首先,讓我們介紹模糊集合與模糊邏輯的若干定義。
設U為某些對象的集合,稱為論域,可以是連續的或離散的;u表示U的元素,記作U={u}。
定義4.1 模糊集合(fuzzy sets) 論域U到[0,1]區間的任一映射,即,都確定U的一個模糊子集F;稱為F的隸屬函數(membership function)或隸屬度(grade of membership)。在論域U中,可把模糊子集表示為元素u與其隸屬函數的序偶集合,記為:
(4.7)
定義4.2 模糊支集、交叉點及模糊單點 如果模糊集是論域U中所有滿足的元素u構成的集合,則稱該集合為模糊集F的支集。當u滿足,則稱此模糊集為模糊單點。
定義4.3 模糊集的運算 設A和B為論域U中的兩個模糊集,其隸屬函數分別為和,則對于所有,存在下列運算:
(1) A與B的并(邏輯或)記為,其隸屬函數定義為:
(2)A與B的交(邏輯與)記為,其隸屬函數定義為:
(3)A的補(邏輯非)記為,其傳遞函數定義為:
定義4.4直積(笛卡兒乘積,代數積)若分別為論域中的模糊集合,則這些集合的直積是乘積空間中一個模糊集合,其隸屬函數為:
?
定義4.5 模糊關系 若U,V是兩個非空模糊集合,則其直積U×V中的一個模糊子集R稱為從U到V的模糊關系,可表示為:
定義4.6 復合關系 若R和S分別為U×V和V×W中的模糊關系,則R和S的復合是一個從U到W的模糊關系,記為:
其隸屬函數為:
式(4.15)中的 * 號可為三角范式內的任意一種算子,包括模糊交、代數積、有界積和直積等。
定義4.7 正態模糊集、凸模糊集和模糊數
以實數R為論域的模糊集F,若其隸屬函數滿足
則F為正態模糊集;若對于任意實數x,a<x<b,有
則F為凸模糊集;若F既是正態的又是凸的,則稱F為一模糊數。
定義4.8 語言變量 一個語言變量可定義為多元組。其中,x為變量名;為x的詞集,即語言值名稱的集合;U為論域;G是產生語言值名稱的語法規則;M是與各語言值含義有關的語法規則。
討論:隸屬函數也是函數,它與通常的實函數有什么區別?
4.3.2 模糊邏輯推理
模糊邏輯推理是建立在模糊邏輯基礎上的,它是一種不確定性推理方法,已經提出了Zadeh法,Baldwin法、Tsukamoto法、Yager法和Mizumoto法等方法,在此僅介紹Zadeh的推理方法。
在模糊邏輯和近似推理中,有兩種重要的模糊推理規則,即廣義取式(肯定前提)假言推理法(GMP, Generalized Modus Ponens)和廣義拒式(否定結論)假言推理法(GMT, Generalized Modus Tollens),分別簡稱為廣義前向推理法和廣義后向推理法。
GMP推理規則可表示為:
前提1:x為A’
前提2:若x為A,則y為B
結 論:y為B’
GMT推理規則可表示為:
前提1:y為B
前提2:若x為A,則y為B
結 論:x為A’
上述兩式中的A、A’、B和B’為模糊集合,x和y為語言變量。
4.3.3 模糊判決方法
在推理得到的模糊集合中取一個相對最能代表這個模糊集合的單值的過程就稱作解模糊或模糊判決(Defuzzification)。模糊判決可以采用不同的方法:重心法、最大隸屬度方法、加權平均法、隸屬度限幅元素平均法。
下面介紹各種模糊判決方法,并以“水溫適中”為例,說明不同方法的計算過程。
1、重心法
所謂重心法就是取模糊隸屬函數曲線與橫坐標軸圍成面積的重心作為代表點。理論上應該計算輸出范圍內一系列連續點的重心,即
但實際上是計算輸出范圍內整個采樣點(即若干離散值)的重心。這樣,在不花太多時間的情況下,用足夠小的取樣間隔來提供所需要的精度,這是一種最好的折衷方案。
(舉例說明)
2、最大隸屬度法
這種方法最簡單,只要在推理結論的模糊集合中取隸屬度最大的那個元素作為輸出量即可。不過,要求這種情況下其隸屬函數曲線一定是正規凸模糊集合(即其曲線只能是單峰曲線)。如果該曲線是梯形平頂的,那么具有最大隸屬度的元素就可能不止一個,這時就要對所有取最大隸屬度的元素求其平均值。
舉例:對于“水溫適中”,按最大隸屬度原則,有兩個元素40和50具有最大隸屬度1.0,那就要對所有取最大隸屬度的元素40和50求平均值,執行量應取:
3、系數加權平均法
系數加權平均法的輸出執行量由下式決定:
式中,系數的選擇要根據實際情況而定,不同的系統就決定系統有不同的響應特性。當該系數選擇時,即取其隸屬函數時,這就是重心法。在模糊邏輯控制中,可以通過選擇和調整該系數來改善系統的響應特性。
提問:系數加權平均法優點是什么?
4、隸屬度限幅元素平均法
用所確定的隸屬度值α對隸屬度函數曲線進行切割,再對切割后等于該隸屬度的所有元素進行平均,用這個平均值作為輸出執行量,這種方法就稱為隸屬度限幅元素平均法。
?
4.4 小 結
from: http://netclass.csu.edu.cn/jpkc2003/rengongzhineng/rengongzhineng/jiaoan/chapter4.htm
總結
以上是生活随笔為你收集整理的人工智能:第四章 计算智能(1)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 人工智能:第二章 知识表示方法
- 下一篇: 人工智能:第五章 计算智能(2)