首頁>國企·民企>深·觀察深·觀察
全面迎接和努力掌控人工智能
5月23日,當今世界圍棋第一人柯潔與計算機圍棋程序“阿爾法狗”(Alpha Go)的第一場比賽結束,“阿爾法狗”以四分之一子優勢贏得首場勝利。這場比賽雙方耗時4小時17分37秒,其中柯潔用時2小時46分43秒,“阿爾法狗”用時1小時30分54秒。
除了圍觀和好奇,人類骨子里的不服輸以及想要看看人工智能到底有多厲害的求勝欲促成了這一挑戰。面對人類棋手注定完敗于人工智能的結局,人類要做好的準備是全面迎接而非拒絕人工智能,努力去掌控而非臣服于人工智能。
接納人工智能是今天社會發展、經濟增長、人類演化的必然,更是人們生活的需求。其實,很多人每天離不開的智能手機就是低端人工智能的應用。更應當看到的現實是,人工智能的發展極具競爭性,未來誰在人工智能的研發和應用中落后,誰就會被淘汰。
2016年3月15日,“阿爾法狗”最終以4比1戰勝韓國名將李世石。兩個月之后,美國白宮就推動成立了機器學習與人工智能分委會,由其主持和協調撰寫了三個關于人工智能發展的報告:《為人工智能的未來做好準備》《國家人工智能研究和發展戰略計劃》和《人工智能、自動化與經濟報告》。歐盟、英國和日本等也相繼發布了研發和應用人工智能的報告。顯然,中國應當參與到這種戰略布局當中,這種布局不僅是國家和民族的需要,而且也是贏得未來的利器。
可以看出,盡管美國對人工智能的布局著眼于產業自動化和提升經濟,但人工智能的發展和應用早就向各行各業全面滲透,春江水暖的領域主要體現在醫療、制造業、交通、金融、生態環境監測、刑事司法調查等。人工智能并不是只會下棋,還會在不同的領域幫助人,甚至超過人。
然而,無論人工智能有多少個理由可能戰勝人,它們首先是在人類為其布置和引導的范圍內進行學習,并且它們始終無法獲得人的理性分析能力、運用邏輯思考的能力,以及具有情感交流和互動的能力。缺少了這些方面的能力,所謂“人工智能戰勝人”就是無源之水,無根之木。
此外,預見性或先見之明也是人類勝過地球上所有生物以及人工智能的地方。憑借未雨綢繆的超前性,人工智能受控于人的裝置早就在研發之中。美國麻省理工學院的詹森·多夫曼研究團隊已經研發了一個反饋系統,能夠讓人類操作者僅通過大腦信號就能實時糾正機器人的錯誤,并做出正確的選擇。這其實也是人工智能的內容和應用,即實現控制人工智能的智能。
另一方面,由人掌控人工智能也意味著必須以人類社會的法律與倫理來制約人工智能。人工智能的發展和應用是如此廣泛和深遠,不可避免地會觸及人類社會各個方面的法律規范、制度和倫理。這意味著,如果不改進和創造新的法律和規范,就無法讓人工智能融入人類生活和生產,從而無法讓人工智能發揮應有的巨大作用。我們必須針對人工智能制定新的法律、形成新的倫理規范,以避免人工智能陷人類于危險境地。
例如,人工智能駕駛的汽車上路,必須改變1968年聯合國制定的汽車控制者必須是人而非電腦的道路交通公約。為此,美國于2016年2月改變了這一法律,允許無人駕駛汽車上路。這也表明,此后一系列和各個方面人工智能的應用都可能會改變現行的法律,或者需要制定新的法律。
與此相關的是,人工智能的應用涉及人和機器、人和動物、人和人之間的倫理時,如何規范人工智能也提上議事日程。盡管阿西莫夫在1941年就提出了機器人三定律,后來發展為四定律,但對于今天飛速發展的人工智能而言,這樣的法則還是太簡單。于是,美國麻省理工學院的學生埃德蒙德·阿瓦達和索罕·迪索扎2016年共同創建了一家名為“道德機器”的網站,試圖解決人工智能應用的某些倫理問題,體現為三種情況:一是車輛直行,導致4只狗1只貓死亡,還是撞向右側路障,導致5位乘客死亡?二是汽車直行,導致3位違章行人死亡,還是撞向右側路障,導致5位遵守交規行人死亡?三是汽車直行,導致5位違章行人死亡,還是撞向右側路障,導致4位乘客死亡?
他們希望以這樣的問題來收集人們對人工智能應用的倫理設計。這些問題很難得到兩全其美的答案,但是,如果不解決,就將限制和阻礙人工智能的應用。僅憑倫理難題這一點,人工智能的應用就不會太順暢,更不可能導致人工智能戰勝人類。(張田勘)
編輯:劉小源
關鍵詞:應用 人類 全面 掌控 法律