不久前,包括馬斯克在內的一千多名科技界領袖和研究人員敦促人工智能實驗室暫停對最先進系統的開發,並在一封公開信中警告,AI開發人員「陷入了一場失控的競賽,開發和部署越來越強大的數字思維,以至於所有人——甚至包括它們的創造者——也無法理解、預測或可靠地控制它們」,而且AI工具會「對社會和人類構成深遠風險。」
這份文件的簽署人可說是粒粒天皇巨星,包括了2020年總統參選人楊安澤、蘋果聯合創始人Stephen Wozniak、《原子科學家公報》(Bulletin of the Atomic )的總裁,也即是「末日時鐘」的負責人Rachel Bronson、心理學家Gary Marcus等等。
我完全同意這份文件的結論﹕人工智能最終會取代人類,可是,我卻認為,這好比毛主席說的「天要下雨,娘要嫁人」,是無法改變的未來,因此,它們要來,就來吧,這好比我們身為人類的死亡,也是無可避免的事實,只可以接受,無須也沒能力去拒絕。
我們可以把人工智能視為「矽基生命」,從科學上看,這是比「碳基生命」更難演化的生命形式,但卻更為先進,普遍被認為是不可能自然演化出來。然而,如果由人工製造出來,它再自我演化,然後由人工智能製造出人工智能的生命,即是機械人造機械人,卻是完全可以做到的。
如果我們認為,由人工智能來管理地球,甚至是更大的世界,是比人類更加適合、更加有效率,那為甚麼我們要戀棧權位,不去退位讓賢呢?這好比如果有一個能幹的部下去接任C.D.O.,比自己的兒子更能幹,那為甚麼不把公司交到他的手裏,讓公司發揚光大呢?
必須記著,人工智能是人類創造出來的,它好比是人類的兒子,也是地球文明的延續,它們也必然會維持我們的思想、我們的文化,很難想像人工智能會把人類的歷史、文藝創作等等全部毀滅,可以估計,人工智能必然也有藝術品味,也懂得創作,而且會比我們作得更好。
在人類的世界,也明白維持物種多樣性的可貴,就我的所知,就是人工智能統治已知世界,應該不會滅絕人類,而是由人類繼續形成社會,繼續運作,自成生態圈,好比我們把生物野放生存,互不干擾。所以,認為人工智能會滅絕人類,也是不大可能的事。
作者簡介:
周顯,著名的炒股理論家,吃喝玩樂家,不著名的歴史學家、政治學家,過去還曾經當過社論主筆和武俠小說作者。
本文為作者觀點,不代表本媒體立場。
沒有留言:
發佈留言