【第4篇】人工智能簡介

1.2 人工智能簡介
人工智能(Artificial Intelligence),英文縮寫為AI(下文都以AI代指人工智能)。它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。
人工智能是計算機科學的一個分支,它企圖了解智能的實質,並生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機械人、語言識別、圖像識別、自然語言處理和專家系統等。
人工智能的發展之路充滿着曲折起伏,大致可以分為以下6個階段:
(1)一是起步發展期:1956年—20世紀60年代初。人工智能概念提出後,相繼取得了一批令人矚目的研究成果,如機器定理證明、跳棋程序等,掀起人工智能發展的第一個高潮。
(2)二是反思發展期:20世紀60年代—70年代初。人工智能發展初期的突破性進展大大提升了人們對人工智能的期望,人們開始嘗試更具挑戰性的任務,並提出了一些不切實際的研發目標。然而,接二連三的失敗和預期目標的落空(例如,無法用機器證明兩個連續函數之和還是連續函數、機器翻譯鬧出笑話等),使人工智能的發展走入低谷。
(3)三是應用發展期:20世紀70年代初—80年代中。20世紀70年代出現的專家系統模擬人類專家的知識和經驗解決特定領域的問題,實現了人工智能從理論研究走向實際應用、從一般推理策略探討轉向運用專門知識的重大突破。專家系統在醫療、化學、地質等領域取得成功,推動人工智能走入應用發展的新高潮。
(4)四是低迷發展期:20世紀80年代中—90年代中。隨着人工智能的應用規模不斷擴大,專家系統存在的應用領域狹窄、缺乏常識性知識、知識獲取困難、推理方法單一、缺乏分佈式功能、難以與現有數據庫兼容等問題逐漸暴露出來。
(5)五是穩步發展期:20世紀90年代中—2010年。由於網絡技術特別是互聯網技術的發展,加速了人工智能的創新研究,促使人工智能技術進一步走向實用化。1997年國際商業機器公司(簡稱IBM)深藍超級計算機戰勝了國際象棋世界冠軍卡斯帕羅夫,2008年IBM提出「智慧地球」的概念。以上都是這一時期的標誌性事件。
(6)六是蓬勃發展期:2011年至今。隨着大數據、雲計算、互聯網、物聯網等信息技術的發展,泛在感知數據和圖形處理器等計算平台推動以深度神經網絡為代表的人工智能技術飛速發展,大幅跨越了科學與應用之間的「技術鴻溝」,諸如圖像分類、語音識別、知識問答、人機對弈、無人駕駛等人工智能技術實現了從「不能用、不好用」到「可以用」的技術突破,迎來爆髮式增長的新高潮。

1.2.1 機器學習簡介
提起人工智能,我們不得不說說人工智能的核心「機器學習」,它是使計算機具有智能的根本途徑。
機器學習是一門多領域交叉學科,涉及統計學、系統辨識、逼近理論、神經網絡、優化理論、計算機科學、腦科學等諸多領域。專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構從而不斷改善自身的性能。
1. 機器學習的基本思路
機器學習的基本思路主要包含如下3步:
(1)首先把現實生活中的任務抽象成「數學函數」,並且很清楚函數中不同參數的作用。
(2)再通過數學方法對這個「數學函數」進行求解,從而解決現實生活中的任務。
(3)最後評估這個「數學函數」,是否真正的解決了現實生活中的任務以及評估解決的效果如何。
通過以上思路步驟我們可以知道,現實生活中不是所有的任務都可以轉換為「數學函數」,那些無法轉換的任務人工智能就無法解決,所以機器學習的核心難點就是如何將現實任務轉換為機器能夠解決問題的「數學函數」。
2. 機器學習的原理
我們以學習認識漢字「一、二、三」為例,想要學會認識漢字,第一步需要看這個漢字是什麼樣的,我們可以通過書籍查看漢字「一、二、三」,並區分3個漢字之間的不同,既「一條橫線的是一、兩條橫線的是二、三條橫線的是三」。第二步不斷重複上面的過程,學習認識漢字「一、二、三」,當重複的次數多了,我們大腦中機會記住漢字「一、二、三」,至此我們就學會了一個新技能-認識漢字「一、二、三」。
如果我們把上面的人類學習過程類比機器學習。
(1)通過書籍查看漢字「一、二、三」中的書籍在機器學習中叫做「訓練數據集」。
(2)漢字的區別「一條橫線的是一、兩條橫線的是二、三條橫線的是三」叫做「特徵」。
(3)我們不斷重複學習的過程叫做「建模」。
(4)學會漢字後總結出認識漢字的規律叫「模型」。
通過訓練數據集,不斷識別特徵,不斷建模,最後形成有效的模型,這個過程就叫「機器學習」。
3. 機器學習三要素
機器學習三要素主要包括:模型、策略、算法。指在指定的假設空間中,機器確定學習策略,通過優化算法去學習到的由輸入到輸出的映射。
(1)模型:在機器學習中,模型的實質是一個假設空間(hypothesis space),這個假設空間是「輸入空間到輸出空間所有映射」的一個集合。通俗點說模型就相當於一種函數。
(2)策略:機器學習的目標是獲得模型的一個最優解,那如何評判模型的優劣?策略就是評判「最優解模型」(最優參數的模型)的準則或方法。
(3)算法:在機器學習中,算法就是對模型最優解的求解方法(等同於求解最優的函數參數)。

1.2.2 深度學習簡介
深度學習是機器學習的一種,其概念源於人工神經網絡的研究,我們平時所說的深度學習主要是指深度神經網絡。人工神經網絡(Artificial Neural Networks,簡寫為ANNs),它是一種模仿動物神經網絡行為特徵,進行分佈式並行信息處理的算法數學模型。這種網絡依靠系統的複雜程度,通過調整內部大量節點之間相互連接的關係,從而達到處理信息的目的。
通俗點說人工神經網絡就是由許多神經元組成的一個擁有輸入層、輸出層和隱含層的算法模型,其原理為:輸入特徵向量並通過隱含層變換到輸出層,最後在輸出層得到分類/回歸結果。

圖1-3 人工神經網絡結構圖
人工神經網絡按其模型結構大體可以分為前饋型網絡(也稱為多層感知機網絡)和反饋型網絡(也稱為Hopfield網絡)兩大類,前者在數學上可以看作是一類大規模的非線性映射系統,後者則是一類大規模的非線性動力學系統。按照學習方式,人工神經網絡又可分為有監督學習、非監督和半監督學習三類。按工作方式則可分為確定性和隨機性兩類。按時間特性還可分為連續型或離散型兩類等。
深度神經網絡(Deep Neural Networks,簡稱DNN)則是對於傳統人工神經網絡的「進化」,一般把隱含層大於等於4層的深度模型結構的人工神經網絡稱之為「深度神經網絡」,這樣人工神經網絡就有了「深度」,真正意義上有了智能學習的概念。
常見的深度神經網絡模型,主要包含如下5個模型:
1. 多層自編碼器
假設DNN每一層其輸出與輸入是相同的,然後訓練調整其參數,得到每一層中的權重。自然地,就得到了輸入的幾種不同表示(特徵)。自動編碼器就是一種儘可能復現輸入信號的多層神經網絡。逐層貪婪訓練的方法就是針對多層自編碼器的優化理論,我們要理解逐層貪婪訓練是為什麼解決BP算法的梯度彌散和局部最優的。
2. 深度置信網絡(Deep Belief Network,DBN)
DBN由多個限制玻爾茲曼機層組成是一個概率生成模型,生成模型是建立一個觀察數據和標籤之間的聯合分佈,對P(觀測|標籤)和 P(標籤|觀測)都做了評估。一個DBN的連接是通過自頂向下的生成權值來指導確定的,這也是逐層貪婪訓練的方法。
3. 卷積神經網絡(Convolutional Neural Networks, CNN)
CNN起先是針對圖像數據進行建模的深度學習模型,通過權值局部共享來使得大型鏈接的網絡計算可行。CNN包含特徵提取層和特徵映射層,特徵提取的主要是通過卷積和池化,卷積可以看作是不同的濾波器,而池化的目的是解決平移、扭轉等圖像特徵不變性。特徵映射一般採用全連接處理和softmax分類。CNN的特殊結構使得其在圖像和語言識別應用中有着獨特的優越性。
4. 循環神經網絡(Recurrent Neural Network,RNN)
RNN也被稱為遞歸神經網絡,RNN主要處理序列時間關聯的數據。RNN可以看成是DNN的一種變型,在DNN中的隱含層的輸出在下一個時間戳上會作用到本層神經元上,即循環遞歸的概念。RNN可以很好地處理歷史序列數據的應用模式,如自然語言處理中。
5. 長短期記憶模型(Long Short-Term Memory,LSTM)
LSTM是RNN的改進,通過隱含層上增加輸入、輸出和遺忘門,改變了歷史數據對當前隱含層的影響方式。使得RNN中較遠歷史數據梯度彌散的問題得以解決。LSTM是現在語言翻譯的重要應用模型。對於sequence to sequence應用場景,LSTM有着先天優勢。

總結
如果大家對人工智能(AI)測試有興趣,歡迎大家加本人微信:wxid_ptea4d8gx4tx12;QQ群:775460627。