今天很榮幸在「2019 未來運算研習會」(2019 Workshop on Future Computing) 主題演講時段擔任引言工作並介紹以「超越無限-電腦系統結構的精彩未來」 (To Infinity and Beyond - The Amazing Future Computer Architecture) 為題的主題演講人王文漢博士。
不久以前在台北舉行的一個與人工智慧 (artificial intelligence,AI ) 有關的研討會中,有一位主講人在做結論時,提到對人工智慧的展望,「想不到一個領域用不到它」,「在可預見的未來都會很有用」,總言之「可大可久」,簡明而直指核心。在數位科技加速進步,AI更日新月異的今天,要如何面對影響生活日益深廣的AI,是每個人,尤其是相關領域學者與專家,必須關切的問題。
在2017年1月5-8日,美國「未來生活研究所」(Future of Life Institute)曾在美國加州Asilomar召開為期四天的「有益AI會議」(Asilomar Conference on Beneficial AI),聚集了一百餘位AI領域學者、專家以及產業領袖,商討AI對未來生活影響的各項議題,最後共同擬就「Asilomar AI 原則」(Asilomar AI Principles) ,共有二十三項,包括研究、倫理與價值以及長程議題,面向廣泛而考慮周密,可見國際間在三年前即已重視相關議題。[1]
在今年9月26日,我有緣受邀與昨天的主題演講人郭毅可院士在「人工智能與未來社會」講座後與談,郭院士在講座中談到一門新興學科「機器行為學」,代表性的著作是今年四月「自然」雜誌刊載的「機器行為學」回顧文章 (Machine Behavior) [2],是由美國「麻省理工學院媒體實驗室」(MIT Media Laboratory)學者 Iyad Rawan領銜發表。文中提到諾貝爾經濟學獎得主Herbert Simon曾在發表論文中問到:「是否也存在所謂『人工』科學,專門研究人造物與所引起的現象呢?」從動物行為研究來看,機器也經歷出生,成長、傳宗接代、演化過程,具有相當的相似性,而藉由研究機器的行為以及與環境的互動,可針對研究、倫理與價值以及長程議題,做廣泛而深入的探討,可視為「Asilomar AI 原則」的衍生成果,是可喜的發展。
昨天在研討中,有主講人談到是否要擔憂AI發展的未來,我個人認為也許不必「杞人憂天」,但必須要擔心,也就是 One should be worried , but not too much worried at this time. 因為「超人智慧」(super intelligence)一旦實現,會來得非常迅猛,讓人措手不及,悔之晚矣!
同時也有人提到,世界上一定會有壞人(evil people)不顧後果發展AI,但差別是強國動用所有資源強力發展,與少數惡棍國家、組織或個人發展,會有完全不同的結果。如美國在二次大戰的「曼哈頓計畫」(Manhattan Project),在不算長的時間內成功引爆原子彈,並用於轟炸日本廣島與長崎上﹔另一方面,由於聯合國禁用化學與生物武器,二次大戰以後七十幾年,大型殺傷性生化武器並未出現,說明人類還是有相當的選擇,及早提醒與教育大眾,不當AI 發展的破壞潛力與如何作適當選擇在現階段已刻不容緩。
據我了解,國內學界在與「Asilomar AI 原則」相關議題上,不論在教學與研究上,都著力不深,這也許是我們應急取直追的地方。有鑑於此,本人將協助財團法人「中技社」於明年主辦一個與「AI治理」(AI Governance) 相關的研習會,探討關鍵議題,還請大家多多支持。
[1] Asilomar AI Principles﹔https://futureoflife.org/ai-principles/?cn-reloaded=1
[2] Iyad Rawan et al. “Machine Behavior,” Nature 568, 477-486 (2019).
沒有留言:
張貼留言