人工智慧、機器學習、演算法、大數據 (6)人工智慧的利與弊

  10505

(來源 維基百科)

延續人工智慧、機器學習、演算法、大數據(1)概要與蒙地卡羅法、及(2)機器學習與無人駕駛、以及(3)演算法與黑盒子模式、(4)使用者該如何看待黑盒子模式演算法、(5) 何謂大數據。本篇將要介紹人工智慧的利與弊

由機器學習、演算法、黑盒子模式的內容,我們可以發現機器可以經由學習及經驗的累積,產生出很像是人類的智慧,可以完成許多人類命令,因此科學家稱呼這樣的智慧為人工智慧

作者認為我們應該稱呼機器是有智慧的、且不會抱怨的苦力,為什麼這麼說?因為電腦只是照著我們需求去作事,而非像是人類一樣有著慾望、好奇心、創造力、聯想力等等重要的情感元素。或許當電腦有上述元素之後,真正的機器形狀的智慧生命時代就真的降臨了。固然人工智慧可以帶來種種生活便利,但是我們仍然要考慮到人工智慧過度發展後的風險問題。

  【複習電腦科技名詞】

  • 人類的腦子叫人腦,對應到電子機器類稱為電腦。
  • 人類的智慧對應到電腦的智慧稱為人工智慧(Artificial Intelligence : AI)。因為是人賦予電腦的智慧,故可稱為人工智慧。人工智慧是現階段的情況,以後可能會出現電腦製造下一代的電腦智慧。
  • 人類解決各個問題的器具稱為工具,電腦解決各個問題的方法稱為演算法(Algorithm)。
  • 人類的學習對應到電腦稱為機器學習(Machine learning)。
  • 人類依據經驗或是直覺的決策行為對應到電腦就稱為黑盒子模式(black box mode),也就是一種機率及統計式的評估後的行為模式,或是直接執行特例的行為模式,也可將黑盒子模式理解為決策部分的演算法
  • 人類依賴過往經歷稱為經驗,對應到電腦累積的資料稱為大數據( Big Data)。
  • 大數據是近年來才有的概念,電腦利用大數據的意涵,主要是指在強大的硬體帶來的大量數據量、快速的運算速度。

圖1

【思考人工智慧科技與各面向關係】

        許多電影、傑出數學家、物理學、科學家、科技人才都有指出人工智慧可能導致的後果,見下述。

  • 當代大物理學家霍金提過人類可能會因人工智慧而滅亡,應該停止開發人工智慧,以下是它的想法:「霍金教授認為人類大腦和電腦所能學會的事情,不存在深刻的差別。但從理論上來說,電腦可以模仿人類的行為,並超過人類的能力,因為記憶力與計算能力遠超過人類。並表示人工智慧的發展可能幫助人類消除疾病,消除貧困,阻止氣候惡劣變化,但是也可能產生人們不願意看到的後果,包括產生自主武器,造成經濟災難,以及發展出同人類發生衝突時擁有自己意願的機器。」我們可以這樣認知人工智慧不斷進化後,有可能將變成電影「駭客任務」的情況,或是在探索外太空會出現人工智慧危害人類的情況,參考電影「異形1」。
  • 愛因斯坦在討論量子力學時曾說過,造物主(神)不可能用丟骰子(機率)的方式來創造這個世界。但現在越來越多現象證明這件事的正確性,同理我們如果要仿造造物主創造人類,則機器人要更像智慧生命,其中運作模式就要納入丟骰子(機率)的概念,因為人類的情感的決策方式很多時候也是機率行為,比如說迷路遇到岔路左轉右轉的機率,所以設計人工智慧時需要充分利用統計與機率。
  • 參考電影「星際效應」,可知影片中具有接近人類情感的人工智慧機器人,它可以在初始設定時,加入許多情感元素,如邏輯機率、幽默機率、說謊機率等,邏輯情況其實現在就可以設計出來,比如說設計故意失敗的機率,因為人類作事不會100%一致,但機器的人工智慧可以,只要讓它具有瑕疵的機率,可以更接近人類的行為;至於幽默機率、與說謊機率也是同樣的情況。
  • 作者認為對數學有偏好的人比較像機器人,因為邏輯性比較高,而且比較難以察覺字裡行間的意義,比較容易執行字面上的實際內容。比如說小時候吵著要出去玩,父母會用兇惡的方式說,你再說一次,一般小孩就會知道父母是生氣而不會再問,但有些人卻會直接再問一次,這就是只考慮到表面字義的意思。如果是機器人的話一定也會執行再問一次,所以作者認為這些人都常會陷入這樣的困擾,如同機器人缺乏部分的情感一樣。所以才會說科技人才需要高度邏輯性,只有高度邏輯性的人才能設計有人工智慧的機器人,之後再增加一些機率性的情感因素,就可讓機器人更像人類。
  • 參考「模仿遊戲」電影,可以知道裡面有段內容是在討論機器是否會思考?裡面艾倫圖靈指出,人類有其思考行為,而機器也有其思考行為,所以他才可以幫助我們做事,不能因為他是一台機器就說他不會思考。同理回到本文的內容,機器是否可以經由學習得到智慧,機器當然有學習能力。機器就是從模仿人類的行為,如同小朋友要不斷學習才能生存在社會上,而學習就是從模仿開始,進而產生智慧。可以參考(2) 機器學習與無人駕駛
  • 看病時會盡量去尋找家庭醫生,因為有比較完整的自身病歷。因此作者認為,其實醫生是最需要利用醫療機器的人工智慧,因為它的資料最完整,考慮的情況一定不會疏忽,打個比方,它可以從觀察到的現象去條列出每一種病的機率,如此一來可以有效幫助醫生來判斷到底怎麼處理。而不用只靠這位醫生的經驗,因為醫生的經驗跟年資及記憶力有關,但是醫療機器人的經驗來自資料庫,記憶力絕對不會忘記任何事,並且資料庫也可以是全人類共享的完整資料庫,遠比單一醫生的資料庫(記憶、經驗)來的更大、更有效。因此只要搭配優秀的演算法、及統計分析,一定可以幫助醫生更有效的治療病人。
  • 生活上遇到有嚴重糾紛的時候會尋求法律途徑,但我們害怕遇到恐龍法官。我們應該怎麼做?我們應該設計一套系統(演算法),只要設計得夠完善,數據夠完整,它的邏輯性及判決一定都比人來的更好,與其相信人的判決,我們更應該利用人工智慧來處理法律問題。並且由人工智慧來寫訴訟狀,一定比人類來的更具邏輯性及文字更為白話。
  • 達文西手術系統也是一種人工智慧,在21世紀醫療出現了醫生操作精密儀器指揮機器手臂做手術的方式,此種手術稱為達文西手術系統,見圖2。此系統主要是利用微創手段進行複雜手術,由外科醫生通過控制台進行控制三或四個機器手臂(取決於型號)夾著手術工具(如:手術刀)來進行手術,此機器手臂也被稱為達文西手臂。目前台灣已有39個達文西手術系統

達文西手術系統的優點

  1. 機器手臂的鉸接腕式設計,使得機器手腕可自由旋轉移動,超出了人手的自然運動範圍。同時比人類的手術行為更加減少震動,減少錯誤的產生。
  2. 達文西手術系統需要一名操作人員,並採用多種安全措施,這就是人工智慧,判斷哪些行為是操作、哪些行為是顫抖,目的是為了有效減少與傳統方法產生的人為錯誤。
  3. 達文西手術系統更節省體力、並據有更好的視野、不用擔心老化的視力,傳統醫生必須站著開刀,體力是一個考驗,同時視角也是有限,而醫師的視力也隨年紀老化,但達文西手術系統是坐著操作,並可以擁有完整的視野,並且細微的部分電腦也可以捕捉得更清楚。
  4. 可以遠距離跨國進行長途手術。如2001年,來自IRCAD的雅克•馬雷斯科(Jacques Marescaux)博士和一個團隊將高速光纖連接與平均延遲時間155毫秒的高級異步傳輸模式(Asynchronous Transfer Mode,簡稱ATM)和宙斯遠程操作器結合起來,成功完成了第一個跨大西洋手術程序,覆蓋美國紐約(New York)和法國史特拉斯堡(Strasbourg)之間的距離。這次活動被認為是全球遠程醫療的里程碑,並被稱為「林德伯格行動」。

圖2取自WIKI,CC3.0

  • 2014年出現了名為「Liftware」的智慧防震湯匙,此湯匙偵測使用者手部顫抖情況,進行平衡震動的演算法,能有效協助帕金氏患者進食,減少因顫抖而把食物在湯匙上弄翻的情況,讓他們能自在的進食。

影片來源:F C.H「防震湯匙 美國公司Lift labs 設計了一款防震的湯匙讓帕金森氏症患者也能自在地進食」

【人工智慧應該往哪走】

大多數人會以為人工智慧的最終目標是讓機器人像人類,這在許多電影都演過。但是作者認為這根本是搞錯重點,人類是一種會因為情緒而失去理智的生物,如果我們人工智慧將它設計的非常像人類,豈不是有可能整天與自己唱反調。所以作者認為大多數的人工智慧,不該有情緒的出現

人工智慧應該如何發展?作者認為應該回歸原本的人工智慧目標,就是服務人類。而早期的電腦因為硬體不足以支撐計算、記憶、能源等問題,進而只能學習簡單的演算法。我們有了統計與機率現在再加上硬體能力,我們可以讓電腦學會人類的決策模式,加上科技所俱備的高效率能力(黑盒子模式),就可以比人類更有用,也才能達到進而協助人類。

但是真的完全不需要有情緒性的人工智慧嗎?答案也是否定的,在某些情況下可能需要有情緒的人工智慧,如:性愛機器人,它需要有情緒的人工智慧,才可以讓使用者感到更開心。而事實上目前也已經展開研究,並具有一定成果。

【為什麼人類需要人工智慧】 

為什麼人類需要人工智慧?把時間點往前拉到為什麼需要電腦?我們在人力時期,沒有機械力的時期,我們希望將不花腦力的、靠蠻力的、重複性的苦力的事情交給別人做、或動物來協助施作;到了工業革命時期開發了許多器械來省時、省力,但還是要人力去進行操作;最後到了現代,我們有了電腦、也有了可以用電腦自動操作的器械,所以我們可以讓電腦與器械代替人類進行苦力的部分。

電腦可以有效的幫助人類做許多的事情,除了做人類不願意作的苦力之外,它還可以做人類不具備的能力部分,如大量數據的記憶、快速計算等等,換言之人類在數量、速度是遠遠比不過電腦,所以人類需要電腦。當我們認清人類需要電腦的事實之後,隨之而來的就是我們希望電腦可以讓我們更進一步的省時、省力。

科技不斷的進步,就是在省時、省力更上一層樓,也就是擁有更棒的工具。我們以伐木作為舉例,一開始是斧頭(人力使用工具)、而後有了電鋸(人力使用電力工具)、之後有大型的伐木車(人力輕鬆使用電力工具),相信之後會出現無人駕駛伐木車來進行伐木(電腦使用電力工具)。

基於科技的不斷進步,人類不可能完全靠人力輸入電腦的每一條程式碼(演算法),而是必須讓電腦像小孩子般自主學習(機器學習),累積足夠多的經驗後(大數據),就能讓電腦自主應對每個可能遇到的問題(黑盒子模式),最後就能產生智慧(人工智慧)。同時電腦的人工智慧有著人類智慧做不到的事情,比方說記憶能力、運算能力、分析能力,如果可以經由機器學習及大數據加強能力後,就有可能可以產生聯想能力,見圖3。

圖3

事實上目前已經有聯想能力,比如說以圖找文的功能。而現在最需要聯想能力的地方,作者認為是數學與科學、工程的許多方程式,要把同一性質的方程式都使用同一個符號、名稱。因為一直以來數學一直不斷的創造許多數學式,但未必有使用到,而物理化學等科學、工程都在努力尋找符合該情況的方程式。而不幸的是,現在是同一個方程式會各自創造各自的符號、名稱,如數學的虛數i,而物理、工程用j。如果利用人工智慧將其整合起來,或是根據科學需求去找到可以利用的數學方程式,那麼人類的科技可以更進一步。

同時可以發現電腦還是沒有人類的直覺能力,因為作者認為不能讓電腦有這種欲望,因為有可能電腦哪一天會判斷人類是有害的,進而滅絕人類。這在許多的電影都曾演過,如駭客任務、魔鬼終結者、復仇者聯盟2。

【人工智慧與科幻僅僅一線之隔-不一樣的永生方式】   

我們不難發現現在的醫療科技不斷進步,有許多人工智慧的器械可以取代受傷的肢體。我們可以將想像力放大,如果可以創造出奈米級的機器,甚至更微小的機器來取代神經,甚至是腦神經,並且別忘記這些微小機器也可以是一台電腦具有記憶力。如此一來,是否可以將這種機器植入腦袋中,慢慢複製該人的記憶、與行為模式,微型小電腦具有強大的反應能力及計算能力,可以讓人成為一個擁有輔助機器腦的生化人(cyborg)。更甚至如果機械腦可以完全複製記憶,並且完全的學習該人的行為模式後,該人的肉體在死亡後,機器腦是否可以放到另外一個機器人上面,進而使該人達到永生,這可能是不同於原本醫療進步的永生方式。

【人工智慧有可能產生的問題】

人工智慧最終有可能發展到哪一步呢?作者認為絕大多數的工作會被機器人取代,除了設計機器人及人工智慧的人之外。人工智慧的機器人會逐步搶走全部人的工作,首先會出現經濟問題,但是人數還是會不斷增加,等到地球不能負荷的時候,就會開始出現限制生育的情形,屆時如果還不能移民外星球,那麼「被許可生育」就會變成一個大問題,這個內容我們可以參考「美麗新世界」的電影。所以即便人工智慧可以幫助人類的各種便利,但是仍然會出現新的衍生問題。所以我們除了科技進步外,我們也要去考慮衍生而來的問題。

基於上述的嚴重性,目前已經有部份人反對過度開發AI,以下是具代表性的人物及其內容。史蒂芬·霍金(Stephen William Hawking)、伊隆·馬斯克(Elon Musk)、史蒂夫·沃茲尼亞克(Stephen Gary Wozniak)、比爾·蓋茨(Bill Gates)等許多科技人材及科學家,在媒體和公開信中對AI風險表示關心。而人工智慧可能產生的危險,有兩種情況最有可能發生:

1. AI被設計執行毀滅性任務:自驅動武器(autonomous weapon)的人工智慧。如果被有心人利用、或是變成各國的AI軍備競賽,導致AI戰爭,造成大量傷亡。

2. AI被設計進行有益的任務,但它執行的過程可能是破壞性的。案例1:如果你要一輛無人駕駛車,不要管安全考量,並將你以最快速度送到機場,它可能不顧一切地嚴格遵從你的指令,即使你可能受不了。案例2:如果此系統是一個工程項目,但會破壞生態系,並自主判斷人類會試圖阻止它,進而先毀滅人類。

作者在此作一個假設,我們已知地球已經存在46億年多,在此之前可能也曾出現過高度智慧的文明,更甚至是與目前一樣走向了高度智慧機械的情況,或許之前文明的終結都是被機器生命消滅,然後機器文明又不知為何又都消失於地球。因此,不得不進一步假設,我們所開發的人工智慧,若不事先訂立相關規章,避免過度開發。人工智慧的最終可能都會對人類有害,不管是衍生的社會問題、或生命哲學問題、或軍事武器的破壞、或意外的判斷人類有害而毀滅人類等。

我們想要提升科技能力,是難以避免人工智慧的發展,我們必須在人工智慧對人類造成危害之前,就應該先訂立好發展人工智慧的規章、與方向。

【結論】        

人工智慧、機器學習、演算法、大數據總共介紹了六篇基礎概要,分別是

(1)概要與蒙地卡羅法

(2)機器學習與無人駕駛

(3)演算法與黑盒子模式

(4)使用者該如何看待黑盒子模式演算法

(5)何謂大數據

(6)人工智慧的利與弊

由這幾篇我們可以了解到,電腦中的運作模式及專有名詞,並認識部分的案例,可以發現人工智慧的優點,以及衍伸問題。

認識人工智慧的內容並不難,但先知先覺人工智慧衍生的道德問題才是困難的地方。如果我們繼續放任人工智慧自由的成長到非常強大的狀態(相對於未來的強AI,可以稱呼現在是弱AI),最後不是造成有錢、有權的人才可以永生,就是變成人工智慧毀滅人類。所以我們必須將風險降到最低,而降低風險的基礎就是要對人工智慧有一定的認識,而不是盲目的相信人工智慧全然對人類有幫助。

下一篇將會介紹與我們生活比較接近的AI內容,如:熱門的AlphaGo、以及購物常見的推薦系統(Recommender Systems),也就是統計中的關聯性分析(Association Rules analysis)。