【書摘】圖解AI智慧大未來-上篇

張凱喬
17 min readApr 13, 2019

--

這本書作者是三津村直貴,標題原文是「図解これだけは知っておきたい人工知能ビジネス入門」

翻譯過來大概就是您想要了解的人工智能業務之類的

這本書已經算是入門書了,不過對於程式苦手來說,覺得其中有些內容還是囫圇吞棗、過目即忘,所以我開一篇文章來整理我讀此書的重點,並挖一些資料來補充。

本書的章節

  • Chapter 1 人工智慧的開端與最初的限制
  • Chapter 2 自我學習的人工智慧
  • Chapter 3 網際網路與大數據所帶來的變化
  • Chapter 4 深度學習的誕生
  • Chapter 5 現代人工智慧的本領
  • Chapter 6 企業對人工智慧的投入與研發
  • Chapter 7 未來人工智慧所創造的世界
  • Chapter 8 人工智慧的未來與技術奇點

邏輯很清楚,大概就是以時間軸的概念,從人工智慧的定義與最初的發展開始,一直到現在、未來。

Chapter 1 人工智慧的開端與最初的限制

什麼是人工智慧

先介紹一個人叫John McCarthy,也有人稱他是人工智慧之父(另一個有這個稱號的人士Alan Turing)

John McCarthy在博士班的時候,看到了 John von Neumann某篇關於電腦模型的論文,就決定自己投入嘗試在機器上模擬人類智慧。

1956年發起Darmouth研究項目,這是世界上首次出現"Artificial Intelligence",四個目標分別為

  • 懂得使用語言(理解並使用文法)
  • 擁有抽象化與概念化的能力
  • 解決只有人類可以處理的高難度問題
  • 從失敗中自我改良、提升性能

當時的年代有些特別,是在計算機的類比與數位的轉換階段

1941年,圖靈的炸彈機引用了大量的電子電路加速運算效能
1945年,美國 ENIAC 世界上第一部一般用途的電子計算機
1948年,第一部范紐曼型架構電腦(有記憶體、ALU等)

而人類的神經細胞,也是運用0(全有)及1(全無)的數位方式傳遞
所以這些事情兜在一起的時候,是一個很美好的時代阿,就像現在,人們對於人工智慧這件事情的想像無限

大英百科全書對Artificial Intelligence的定義

The ability of a digital computer or computer-controlled robot to perform tasks commonly associated with intelligent beings.

也就是指可以做一些跟人類很像的工作
我覺得這樣的定義會比較簡單,不過也保留了一些可操作的空間

另外,若要深入討論intelligence(智慧)的問題,會是比較難、比較學術的領域
譬如書中有提到,目前學界並沒有對於智慧定義有一致的共識,1994年心理學界重要的論文"Mainstream Science on Intelligence"指出

智慧指的是擁有通用性的能力,像是推理、預測、抽象思維及複雜概念等,還有從經驗中學習的能力。所以考試成績並無法呈現智慧,而應著重在「理解事務現象」、「捕捉概念」、「判斷回應的方式」等環節上。

把智慧跟人工智慧結合起來,便會產生一個有趣的哲學問題,稱為「AI效應」

我們常說人工智慧不是真的智慧,但我們卻不知道智慧是甚麼

譬如,很會下棋的電腦,有時候是透過窮舉法,也就是把可見的每一步路徑都進行計算,最後產出勝率最大的走法。

這個時候我們會覺得電腦還是一樣笨,根本沒有智慧,因為最強的人類棋手並不是靠這樣來取得勝利。這時候便可以反問自己,那甚麼叫智慧呢?

所以如果人類都不知道甚麼叫智慧,這樣是不是其實人類也不智慧?

參考資料

莫拉維克悖論-強AI與弱AI

Moravec’s paradox: 要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的。

撇除剛剛提到深入的"智慧"問題不談,假設我們就是希望電腦能有與人類相近的學習歷程,就像小孩一樣,會開始懂得辨識東西、說話、邏輯思考等。

此時的問題便是,電腦可以處理很複雜的問題,譬如下棋、數學定理、代數問題等,這些對於人來說很困難,對電腦很簡單。但是對人類很簡單的事,譬如說視覺(辨識)、道德判斷、語言等,對電腦卻是很困難。

(在可見的未來當中,會計師或股票分析師的工作可能會不見,但是園丁、接待員或廚師的工作卻很難被取代。)

所以我們在這邊就會給人工智慧的發展上,給予一些比較簡單、好理解的分類,便是「強AI」與「弱AI」

弱AI基本上就是希望電腦能解決某個需要高度智力才能解決的問題,而不要求它跟人類一樣有全面智慧解決各式各樣不同的問題。譬如開車、下棋、分析股票等。

強AI 要求電腦的智慧需要更全面廣泛,需要有推理、學習、規劃、語言溝通、知覺等能力,擁有這些能力的電腦才有可能展現出全面性的智慧、跟人類並駕齊驅。

強AI不用說,就是比擬成人類的智慧,甚至勝於人類,而弱AI的"範圍"則成了一個很重要的研究課題,稱為框架問題。

以開車舉例,其實只要專注在道路上、其他用路人、號誌、標誌、目的地,這樣其實就很安全。這個框架可以有效解決一些問題,譬如人們開快車時,可能是為了趕上班、趕赴約等,但卻大幅提升了自身的風險,在這個案例中,有框架的自動駕駛車,會以安全為最高準則來幫你開車,他才不管你會被扣薪水或被朋友討厭。

所以可以先釐清楚,我們目前檯面上看到的"人工智慧",都是屬於弱AI,讓電腦在有限的範圍內接收資訊並做出反應。而距離一個安全、透明、有倫理觀念、能與人類協作的「強人工智慧」仍有一段很長的距離要走。

參考資料

Chapter 2 自我學習的人工智慧

機器學習

隨著電腦的容量與效能大幅的提升,處理器從4位元 一路往上走到 32位元、64位元,手機已經是80年代電腦速度的百倍

HDD更是從MB、到GB、到TB,所以也代表可以傳輸、儲存與運算的資料擴大了,有越來越像人腦了

不過機器學習並不是在電腦越來越強的時候才發生的,而是在電腦數位化發展的初期,約莫1950年代,就有很多關於機器學習的理論了。

Hebb於1949年基於神經心理學的學習機制開啟機器學習的第一步,簡單來說,就是用數學模型來模擬電腦應該如何有自主學習的能力,也成為Hebbian theory,十分重要地影響了後續的機器學習演化

所以機器可以應用程式自我學習,改善結果的過程、程序,都稱為機器學習,所以其涵蓋的範圍很大,我們所談的深度學習,也是在機器學習範疇內的一支。

機器學習相關的概念

這邊不會贅述機器學習的演算法理論,而是會提幾個重要的『概念』,是針對科學家在建立一套理論機制時,所基於的想法、出發點及目標。

第一 標籤與特徵

要讓電腦的認知模擬人腦,這就回到前面的『Moravec’s paradox』。電腦可以處理很難的數學邏輯問題,但卻沒有人類基本的感知能力,所以為了讓機器可以完成一些簡單的人類工作,必須要思考看看怎麼樣讓電腦有感知的來源。

所以事物需要擁有標籤,譬如男/女轉換成0/1,或者像是一首歌,會有好幾項資料,譬如歌手、專輯、歌手、曲風等。

進一步,以人臉為例,會有好幾個特徵,譬如眼睛鼻子嘴巴,從不同的眼睛形狀、鼻子形狀等等,人類便可以很容易判斷出到底是同一個人或不同人。

但從電腦的角度,我們必須把這些轉為數學,用算式、向量、矩陣等等方式,讓機器去學習。

第二 監督

有無監督對於機器學習的過程與成果而言有相當重要的影響,在訓練的過程中告訴機器答案、也就是「有標籤」的資料,便稱為監督式學習。

非監督式的學習則是訓練資料沒有標準答案、不需要事先以人力輸入標籤,故機器在學習時並不知道其分類結果是否正確。訓練時僅須對機器提供輸入範例,它會自動從這些範例中找出潛在的規則。

當然,有監督的成果會比較好,不過當資料很龐大、甚至人們都找不出資料的相關性時,便可以用非監督式的方式讓機器試著找出背後的特徵,所以兩個的應用目標會有些不同。

第三 強化

遇到某些需要連續做決策的情況時,,必須因應環境的變動、隨之改變原有的作法。專家會運用增強學習的原則,透過觀察環境而行動,隨時根據新進來的資料逐步修正、以獲得最大利益。

這個概念跟監督有異曲同工之妙,不過適用情境不同。

監督是有明確答案,知道yes or no,所以可以先給你答案,再讓你去學。不過對於沒有明確答案的問題,則必須用強化的方式,有點像是鼓勵、獎勵,跟你說好棒棒,雖然我不知道你會走去哪,不過你走的方向對了。

藉由參數調節,反映在下次行動時有好的表現,避免表現不好的行動,反覆學習以達到目標。

參考資料

Chapter 3 網際網路與大數據所帶來的變化

1990後網路開始普及,除了消費者端的產品服務之外,背後產生的大數據也成為人工智慧的重要工具。

網路上所被上傳的圖片、文字、結構性的資料,通通都成了訓練人工智慧很好的資料庫。

前幾年看過一個有趣的數字,全球每秒鐘會出現近萬條的新推特,每天則是好幾億條的新推特。解決了過去在機器學習上一個相當昂貴的工作:資料取得,網路使得大數據資料的取得成本同時得以大幅的降低。

同時網路時代消費者市場大開,使得電腦科技產品廣泛被接受,更多的廠商投入研發更新的晶片、更好的演算法等等。

Chapter 4 深度學習的誕生

深度學習來自類神經網路的概念,而這些都屬於機器學習的範疇。在探討類神經網路前,我們可以先來釐清幾個名詞:人工智慧、機器學習及深度學習。

從下圖可以看出,機器學習與深度學習屬於人工智慧的範疇(或發展方向)之一,而深度學習則屬於機器學習。這個概念主要是呼應最前面,我們對於人工智慧的發展並沒有一個放諸四海皆準的目標,所以本身會有點抽象,也使得裡面會有不同的專家學派,各自朝著不同的目標及節奏前進,或是同個目標但是不同方式。

回到類神經網路與深度學習命題本身

類神經網路(Artificial Neural Network)的概念早在 80 年代就存在(但是當時的電腦運算能力不足,因此效率不彰),原理來自於人體細胞,人的神經系統由神經元構成,彼此間透過突觸以電流傳遞訊號。是否傳遞訊號、取決於神經細胞接收到的訊號量,當訊號量超過了某個閾值(Threshold)時,細胞體就會產生電流、通過突觸傳到其他神經元。

簡單來說就是Xn個細胞接收到資訊,會傳遞訊號到下一層細胞,由這層細胞自身的參數設定(調節)來決定要往下傳遞什麼,即為結果y。

深度學習是一種以類神經網路為架構,對資料進行表徵學習的演算法。而從類神經網路發展到深度學習,主要有三個技術推手。

  1. 提升學習效率的反向傳播技術
    最初的概念是往前傳播,就是從接收、處理到結果,但為了使輸出的結果更準確,中間的處理過程需要得到反饋,這樣才知道處理的過程是哪邊需要修正,讓程式更好。
  2. 模擬人類視覺神經系統的卷積神經網路
    卷積神經網路是來自日本NHK技術研究院的福島邦彥在1979年發表的技術,簡單來說就是在多層的神經網路中,加入擁有特定功能的卷積層與池化層,以人的眼睛為例,我們可以看到整體的面貌及其中的結構,不過對於數位的世界來說,電腦往往是見林不見樹。運用卷積的技術可以找到圖形的”趨勢”與”特徵”。
    進一步說明,卷積層就是把影像特徵分類(例如輪廓、色彩、對比等),找到特徵,目標是除去不必要的資料。池化層則是在卷積層之後,將影像的解析度降低處理,只留下特徵、減少雜訊。
  3. 自動編碼器技術使得逐層的機器學習得以實現
    在反向傳播技術的初期,其中每層的調教仍是透過監督的原則,可以針對較簡單的多層神經網路(可能3–4層),改善其模型的表現。不過對於更複雜的多層神經網路,例如卷積,這時候基本的反向傳播已經不敷使用,所以才以自動編碼器,來搭配反向傳播。
    自動編碼器的目的是用來訓練複雜神經網路的每一層,採非監督式的方式進行,使得每一層的精準度提升。所以多層次神經網路在正式學習前,都會用自動編碼器執行部分學習,稱作Pre-Training,可以有效提升正式學習的運作效率。
    自動編碼器的基本組成就是『編碼』(壓縮)與『解碼』(解壓縮),自動編碼器運用三層的神經網絡:輸入層、隱藏層(編碼層)和解碼層,其目的是重構其輸入,使其隱藏層學習到該輸入的良好表徵。

OK, crazy modeling

所以上述提到的機器學習與深度學習的概念,便會開始影響我們科技的應用,這些演算法與概念是互相影響、互相應用、互相交融的,譬如Alphago就是深度學習+強化學習,藉由現有棋譜的訓練,得以做出搜尋演算法、盤面評估、戰術預測等動作。

另外,Google開發的Deep Q-Network(DQN),也證實了機器可以自主學習遊戲的玩法,完勝人類成績。其Q的字母便是指Q-Learning的強化學習演算法,可以根據不同的環境、狀況來設定分數,並作為獎勵。

DQN並不需要知道遊戲規則,便可以從反覆的嘗試中吸取經驗,最後得以順利破關,然後持續學習、得到比人類更高的分數。

參考資料

機器學習 vs 深度學習

為什麼現在深度學習這麼夯,主要是深度學習雖都屬於機器學習的分支,不過卻突破了過去在機器學習領域的限制,得以壯大這些演算模型,使得電腦更”智慧”了一些。

參考Tommy Huang文章,機器學習(ML)的時代,經由人類知識,從這種資料去萃取一些特徵資料(量化),比如貓或是狗的形狀、花紋、聲音總類等。從萃取出的資料中學習模型,然後用學習好的模型去判斷貓和狗。

而深度學習時代,捨去人類知識作的特徵萃取,從大量的資料中讓多層結構的神經網路自己從資料中學習這組資料可以做什麼樣的特徵擷取。所以貓跟狗的特徵是根據你給模型的資料,模型自己去學習貓跟狗在特徵擷取上的差異。

ML結構: 資料→特徵擷取→模型→答案

DL結構: 資料→模型(特徵擷取自學)→答案

參考資料

到這邊已經燒了很多腦細胞,不過也大概掌握到了一些人工智慧發展的『概念』,對於像我腦袋不是很好的人,只希望能藉有這些瞭解,掌握技術的趨勢即可、不要被快速發展的科技拋在後頭。

到這邊大致上告一個段落,簡單的帶過了人工智慧的發展與一些目前十分重要的理論模型,而下篇就可以開始提到真正的應用,以及不久的未來,我們期待有哪些更棒的東西出現,期待影響這個世界的科技發展。

這篇就醬,ㄅㄅ

--

--

No responses yet