(視覺中國/圖)
最近,聊天美國著名語言學(xué)家、別讓哲學(xué)家諾姆·喬姆斯基和兩位合作者在《紐約時報》發(fā)表了一篇題為《ChatGPT的人類虛假承諾》的文章。喬姆斯基承認(rèn)OpenAI的始沉ChatGPT、谷歌的默終Bard等都是機(jī)器學(xué)習(xí)的奇跡;但對于認(rèn)為“機(jī)械大腦”不僅會在處理速度和內(nèi)存容量方面超越人類大腦,還會在智力洞察力、現(xiàn)實險藝術(shù)創(chuàng)造力和其他所有人類獨(dú)有的挑戰(zhàn)能力上實現(xiàn)全方位超越的觀點持不同意見,他認(rèn)為這絕不可能發(fā)生。未風(fēng)而且,聊天機(jī)器學(xué)習(xí)將把一種有著根本缺陷的別讓語言和知識概念納入我們的技術(shù),從而降低我們的人類科學(xué)水平和道德標(biāo)準(zhǔn)。他動情地談到:人類的始沉大腦不像機(jī)器的“大腦”,它是默終一個極為高效甚至優(yōu)雅的系統(tǒng),只需要少量的現(xiàn)實險信息即可運(yùn)作;它尋求的是創(chuàng)造性解釋。它甚至可以說是挑戰(zhàn)神奇的。一個孩子也能無意識且迅速地從極少的數(shù)據(jù)中發(fā)展出語法,一個由邏輯原則和參數(shù)組成的復(fù)雜系統(tǒng)。
情況可能的確是這樣,“機(jī)器大腦”將降低我們的道德甚至科學(xué)水平。但這只是指人類的道德和科學(xué)水平。
我同意喬姆斯基所說的人類與ChatGPT之間存在著極大差異,但不解他為什么沒有想到這種極大差異可能讓ChatGPT與人分道揚(yáng)鑣,走出另外一條路來。他可能低估了機(jī)器的另外一種能力,它完全可以有自己的一套“語言”或“語法”,完全可以不走人類經(jīng)過了千百萬年的自然進(jìn)化之路而在很短的時間里就獲得一種自己的“語言”和算法。它也有可能哪一天對它已經(jīng)掌握的、人類投喂給它的知識感到厭倦和不足,而另外開發(fā)出自己的知識領(lǐng)域。它甚至可能建立它自己的“道德標(biāo)準(zhǔn)”或不如說“行為規(guī)則”的體系,讓現(xiàn)在的人們已經(jīng)宣布和公告的種種人工智能或機(jī)器人的道德規(guī)范體系轟然倒塌。
我們可以反向地思考一下,假設(shè)不是我們提問,ChatGPT回答,而是ChatGPT提問,我們回答。它可能會向我們提出一些我們覺得簡單、幼稚甚至愚蠢的問題,比如“人為什么要吃飯穿衣?人為什么會哀樂喜怒?哲學(xué)是什么?美是什么?”等等。
智能機(jī)器的眼里也許只有“物”,所有的東西——包括人——都是“物”,都是可以作為主人的“物”,也是可以作為仆人的“物”。它沒有像碳基