天地自然人

 找回密碼
 立即註冊
樓主: 奇怪

新第四道 --- 黑白講系列

[複製鏈接]
 樓主| 發表於 2023-7-20 09:42:43 | 顯示全部樓層
110.6, 家庭關係

我见过的最暴虐的一个事例,是我从前的一个病人。那是个老太太,有两个女儿,结婚后都是领着老公回娘家住。这本来是无所谓的事情,但是老太太是个老派人,要面子,觉得两个女儿嫁得都不好,女婿甚至都没有能力置办一套自己的住处,哪怕是租呢?所以她自己就觉得,在亲戚朋友老同事面前抬不起头,渐渐就不再社交,没什么朋友了。然而她这些小心思,外人并不知道。

虽然老太太对两个女婿一百个看不上,但是为了女儿的幸福,她完全没有表露出来,一年365天,一天三顿,伺候着,从无怨言,从无愠色。表面上,一家人风平浪静。但老太太心里却早就暗流涌动了。

有一天,老太太得了重感冒。她躺在床上就想:今天,会是谁给全家人做早饭呀?哪里想到,两个女儿、两个女婿起床后发现没有早饭,兴高采烈地说,那我们出去吃吧。把老太太气得,直接喝了刷厕所用的强酸。

老太太送到医院里来的时候,因为声带也烧坏了,说不出话来。大家并不知道她要自杀的原因。女儿女婿一个个痛哭流涕,说自己不是人,对妈妈关心不够。但其实,对妈妈关心不够只是泛泛而谈,四个人其实是摸不着头脑,完全猜不出原因。闹到这个地步,两个女儿女婿甚至都猜不出原因。说明这个家庭成员的沟通是出了大问题。

家庭成员的沟通,问题就在于,因为过于熟悉,也因为起因过于琐屑,实在是拿不上台面。比如你一到家就说“今天公交车上挤死了”,老公跟木头一样也没有一句问候的话。平常每天做饭、洗碗都是你的事,这不假,但是今天就是因为一句话老公没接茬,这饭做得就不痛快,这碗洗得就更是心里恨。但是起因太小,说不出口,怎么办呢?那就找个大点儿的茬呗。比如说:“你看看你,都42岁了,才混了个车间副主任,一年就挣这点一脚踢不倒的钱,我嫁给你真是倒了八辈子血霉。”哦豁,你把男人给惹毛了。

就是因为每次起因都过于琐碎,每次你都得找个别的茬,这就让你老公觉得你是个恶婆娘,不可理喻。弄到后来也不需要什么原因了,老公做什么说什么你都不顺眼,看着都心烦。可不就天天吵么?

但是不管怎么吵,我们对一个常识还是要抱有信心。就是家人才是这个世界上我们最爱的人,也是最爱我们的人。最常见的吵架理由,无非就是认为对方对自己的关心不够。或者说,你对对方的付出,没有得到应有的回报。

解决的办法是什么呢?无非有两个。第一个是把话说开,明明白白地表达爱,表达道歉。比较管用的办法是给对方写一封信,这样比较郑重一些,另外有一些话当面不好说,那写信就可以把内容写得更真诚。但是信的内容还是一样,一定要表达爱,表达道歉。你要是12345还是数落对方的不是,那这信还是不写的好。

第二个办法就是分开。手指头被火炉烫了,把手指头拿开是最应该要做的事情。爱父母,并不意味着一定要和他们住在一起。夫妻也是一样,国外流行周末夫妻,也就是两口子闹矛盾了,那就分开。周末再像约会一样见上一面。

亲情难以割舍,却完全不等于一定要在一起居住。拉康说,与他人达成共识,必须要付出切削改造自我的代价。你不愿意付出这个代价,或者不愿意为某一个人付出这个代价,这其实很正常。巧不巧呢,你这个人人缘特别好,唯独和自己的亲妈合不来。怎么办呢?那就分开呗。无论如何一个人的幸福,要建立在自我成长的基础之上,而不能建立在与某人的关系基础之上。哪怕这个人是自己的亲妈,也不行。

(摘錄from 得到,顧衡,回答讀者提問)

 樓主| 發表於 2023-11-16 15:20:44 | 顯示全部樓層
111, 自我的誕生

生我之前誰是我,身死之後我是誰?

這生前死後的事不好說,我們不討論。

而將死之前或暫死而復生,有瀕死一系列的討論,我們這裡也不涉及,有太多書籍資料可以參考。隔壁的黑白講/齊助教好像也說過。

這裡我們可以討論的是:現世的〝我〞是怎麼來的?這部分我們都是經歷過的,不然各位也不會在這裡聽我瞎說。

〝我〞的錨點:記憶。當嬰孩開始有記憶的時候。

這很容易想像,一個突然記憶喪失的人,必然會問「我是誰?」

一旦我們開始有記憶了,就會把自我錯覺為時間延續的意識體。

但從無記憶到有記憶,也不是從0直接變1的,是斷斷續續,我們記不清。這很正常,是大家普遍共有的經驗。

總有人在說:三歲小孩記得前世,之後才忘。

我不討論這些,比如有前世記憶的人、看見真相的小孩、…等等。仿間也有很多這類書籍。

有研究顯示,嬰孩到一個時間,其大腦的海馬體生長趨整、記憶顯現;神經元重新組合篩選,部分的連結被刪除,只保留納入新生活的種種軌跡。相應的實驗研究有:理解鏡子裡的是自己、有了〝我/我的〞的概念、聲音辨識的固化(比如日本小孩分不出l、r發音)、。。。

從此,記憶主體性生發、定向智能模式開展,敘事自我的轉譯與解釋就開始了。

所以,進入這個世界,有了新的身分,有了記憶,會自我敘事,自我形成,進入社會模式。

註:
都不需要調置腦袋,環境改變就可以讓人變一個自己。監獄實驗了解一下。不要想人會有多高雅,沒有。大部分人角色帶入,認假為真。犯人當久了會自我麻痺;獄警演久了還真把自己當成官。

你去虛擬世界,也可能會迷失原來的我,帶入全新的角色我。也有沉迷於遊戲網吧之人,跳不出來。(至於台灣怪談,朱秀華借屍還魂,最後,也會成為另一個林罔腰的。)



而且,這個自我還不具有唯一性。自我是一個多元共同政體,會隨著環境的變化有所對應。

比如,對小孩大發雷霆的時候,老師打電話來,立刻和顏悅色的與老師交流。有人生氣與正常時、在外與在家時,判若兩人。

自我是變化的、可塑的,自認擁有一個固定性格的唯一自我,是一種錯覺。試想,今日之你=昨日之你?忒休斯之船瞭解一下。

自我又是一個具有反身性思考的意識體。於是,我就分裂了,小我、假我,內我、高我、真我、那能識的我。概念上似乎可以說得通。

但感受那能識的,是我要有主體性概念?當你去”能識”,這不就是「我思故我在」?你一思,主體性便在了。一念及乖,我便在了。

當記憶喪失,自我迷失時,那能識的能力還在,還會問我是誰。但若是阿茲海默,自我是否就消逝了?

至此,我不說無我,沒有自我,自我在社會生活上是需要。但自我不是恆常的,是變化的,是可操控的,是可塑造的,是會消逝的。這些,應該不證自明吧?


那你煩惱個屁,你都不是你了。

 樓主| 發表於 2023-11-23 08:10:21 | 顯示全部樓層
112, NPC的自我修養

地球不是繞著你轉,是你在轉。

怎麼轉?家庭、工作、學校、親友、。。。

大圈裡還有小圈,具體到每個人。

於是,8字形,三體、與其他NPC互動。跟世界的主角、天選之子、或自認為天選之子的NPC。。。

從把老天幹趴,到被老天幹趴,NPC要有自己的覺悟。

NPC要自我修養。還想Dis誰?有NPC這麼對應的嗎?把天聊死了,你這麼槓就沒意思了。這真實世界遊戲,你算個Der? 學一下遊戲裡的NPC吧!

我們從質疑NPC,理解NPC,到成為NPC,然後超越NPC。

如何超越?

除了自己主動的察覺、跳出與脫軌,跳脫日常NPC情境外,遊戲本身也會給。

當世界突然給你一些小意外,這是一種新的體驗。如果事情照我們往常日子般進行,自然不意外,也就沒有新的體驗。那就還在既定的環流裡浮沉,當然的NPC模式。

別在出乎意料之外時就焦慮?本來趕著要上某班車,因為某事沒趕上;本來計畫要如何,結果被某人打斷,改變了既定軌跡。

如果都不意外,人生完全在刻板規劃下進行,就沒意思了。凡事往新的開放的方式去思考與面對,當這是好事。想想這鳥事如果不發生,也就體驗不到。別與不符合自己軌跡的情境較勁,去感受去體會。

這是遊戲給你開了副本,新地圖。難得當一次主角,闖關唄。

那你說主線任務、支線任務是什麼?打怪升級,怪物何在?搞錯方向你就還在NPC的應激模式。當你想回歸正軌,當一個稱職的NPC時,那怪物就是破壞你日常模式的壞蛋。

但如果你把大BOSS認成是NPC自己,這副本就轉變了。外面的世界你改變不了,總有新的壞蛋給你製造新的意外。只有針對NPC自己,才有經驗值的累積。

如何應對?用何種心態去面對?一次次考試之中,NPC便可強大自己、內化心法,積累出那小小的等級,有了對治煩心事的心理工具與心靈武器。

悠著點囉。


 樓主| 發表於 2023-11-30 09:24:16 | 顯示全部樓層
113, 機器人

人是不是生化機器人?只要常看監控視頻就知道了。

常常昏沉,經常無意識,被其他境物給吸引走了。

最近刷視頻,看到一個監控視角下的一幕,本想直接把視頻分享出來,但不會。

內容大概是這樣:

母嬰店,一女子推著嬰兒車到櫃檯,把娃娃抱起先放櫃台上一側,娃娃自個兒玩起。女子再把尿片放櫃台上要結帳,一看櫃台沒人,於是自己在櫃台掃碼把錢給付了。

而當下,女子被手機的內容給吸引,也許是有訊息、來通知、或其他。女子邊看手機,一邊無意識的推著嬰兒車便走了。

接著,一男子手裡拿著奶瓶,到櫃檯結帳,看到櫃檯上的嬰兒,覺得嬰兒可愛,於是摸了兩把,正巧女店員回到櫃台,於是男子便把手中奶瓶給結帳,期間與店員寒暄兩句,女店員也誇寶寶很可愛。

男子結完帳,拿著奶瓶就走了。孩子還在櫃檯上。女店員一下矇了,怎麼把孩子辣下了?於是抱起娃就追男子。

男子搖搖手說,這小孩不是他的。女店員當場傻了。這時,女子從外面跑了進來,原以為是直接要來領小孩,結果不是。女子居然跟男子急,說:老公,小娃不見了!

這下,所有人,包括小娃也矇了。

原來,娃是年輕夫婦的,他們到母嬰店買東西,很放鬆。松到一個把娃丟下,一個不認得自家娃。

終於,虛驚一場,夫婦把寶寶領走了。而老公還在撓頭,這是我的娃?

這娃怕是充話費時送的。

最終,女店員回到櫃台,看到櫃檯上有一整袋尿布,又傻眼。



仔細去回顧過程細節,這不就是人們常處於的「無意識行為模式」嗎?


 樓主| 發表於 2024-1-11 17:30:46 | 顯示全部樓層
114, 再談機器人

人是不是機器人,一直在我們專欄是個大哉問。但這大問也可以反過來問:機器可能變成人嗎?

這裡考察的重點不是形體,而是心智(mind)。機器有沒有自發的意向(intentionality)、意識(consciousness)、意志(will)?簡單理解,意向就是心智在場、表達事物的能力;意識,就是知道自我;意志,就是自主選擇。

首先,有關意向表達,提問回答與互動,現在的AI大體可以了。圖靈測試通過率增加,但確認意識這事還不好說。

中文房間的思想實驗,可以了解一下。哲學家賽爾,想像自己是一個待在機器內部的小人,有一疊紙、一枝筆、還有中英文對照表。人從機器縫塞進紙條,問了個中文問題,賽爾用中英對照表查出對應英文,套公式給出英文答案,在對照英中辭典,抄寫紙條,塞回門逢。

塞爾完全不懂中文,但給出的答案夠完美,外面的人分不清是人還機器,圖靈測試會過,只要對照表、公式夠細緻。

其中,機器不存在〝理解〞這能力,中文房間沒有理解力,只有單純的計算。所以,意識是不可能存在的。

畢竟沒有理解,就不會思考;沒思考,就更不可能反思;沒有反思,就不能認識自我,沒法「我思故我在」。是故,讓計算機進化出意識的強人工智能不可能。

但是,先等等。中文房間裡的塞爾,他從開始就假定自己是一個沒意識的傢伙,那整個思想實驗當然不可能產生出意識,從假設就限定了,不是嗎?

是的,是這樣,先假設自己沒意識,過程中執行沒問題。最後,果然不需要意識。想想,計算機何嘗不是按〝程序〞辦事?這過程不需要意識介入。

而如果先假定不需要意識,去推導過程,結果,居然反駁了假定,就表示需要意識介入,這不就是數學慣常使用的反證法。

中文房間思想實驗,也可以假定需要意識介入,結果過程中都不用思考,不也反證出假定條件不需要。

哲學上的這麼一種看法,天花板都告訴你了。於是,計算機人工智能,很長的發展史,都不可能觸及至強人工智能。

可是,事情的發展並沒有如此簡單的熄火。


 樓主| 發表於 2024-1-12 17:27:44 | 顯示全部樓層
115, 億年機器人

對應中文房間,有另一個思想實驗:億年機器人。這是由哲學家丹尼爾•丹尼特,在其《直覺泵與其他思維工具》書中所提出。

想像一下,你打算看到一億年後的地球模樣,而你只能休眠等待。於是你爬進休眠艙,設定好一億年後醒來。

但事情可沒這麼簡單。休眠艙需要撐一億年不壞,要保證能源供給,要經得起環境災變,如果受損了,還要能自我修復或換一台休眠艙。一億年很長,有數不清的考驗,休眠艙都得要能應付,不然你也別想醒來,休眠艙直接就是你的棺材。

那你想,找個最理想的位置,比如地下三萬米/海底兩萬哩,有地熱來維繫休眠艙所需的資源,然後駐紮那裡。行不行?

恐怕不行,一億年間,地震、海嘯、火山爆發、. . .。地球很危險,那躲到太空站,一直繞地球轉好不好?也不好,萬一隕石撞地球呢?到月球呢?一樣也有問題。

在這麼長的時間段中,想想就知道沒法靠譜地預測風險如何降臨。百年一遇的事會遇到一百萬次,未來無法預測。

那怎麼辦呢?那就製造一個能感知環境、回避風險、尋找資源的機器人,把休眠艙放進去。

到此,有想法的人大概知道丹尼爾指的那個休眠的你是什麼了。是的,我們的基因。

基因要求生化機器人因應環境伺機而動,從開機起就給它內定指令:「延續著活著」。基因便不再給臨場指導,睡睡不作為了。生化機器人必須能自己定策略,“知道”如何去尋找食物,保證生存,同時也要保障自身安全,預判危機和規避危險等等。然後,一代代繁衍生命,換休眠艙不斷。

很多事情你(基因)既不可能都提前想到,而就算想得到你也不可能全部都提前準備,你真準備不起。難不成,造一台鋼鐵人?那也是會生鏽的好嗎。面對環境的變化萬千,所需資源太多太重。

再有,未來一億年不會只有你準備的生化機器人,可能還有許多別型機器人,彼此競爭與合作。機器人之間還得要有合縱連橫的能力,這對機器的智能可謂是層層嵌套,更加複雜。

假設你的生化機器人,最終活過一億年,將你(基因)保存了一億年,那他大概也能發展出自己的能力。對應環境,生化人自己會〝衍生〞出除生存與繁衍外的許多次生任務。而衍生就意味著脫離,脫離於當初的目標。只要允許機器有相應的決策自主權,那麼自主決策的進程就一定會超過基因的預想範圍,也就是〝失控〞了。基因完全可以控制人類?恐怕其中也有環境甚至文化的變因吧!

而基因自身也一樣,雖然是在休眠,實際上因為環境的變異,基因也一樣會被修整。唯一不變的,是所有事物都在變化,有的只是快慢不同罷了。

在演化過程中,基因創造出人做為保護它們的機器人,以保障它們在人類身體深處漫長地休眠。人是基因為了自己永生而造出來的生化人,但在基因不得不讓渡的自主決策空間中,人類演化出了自由意志。我們作為人的利益,與“造物主”基因的利益,走上岔路。從基因不得不賦予人類學習能力,授權自主決策的那一刻起,基因失去對機器人的控制,人類自立,就成為注定的結果。

人本來是機器,機器何嘗不能是人?

丹尼爾認為,不需要什麼神秘的大腦特殊機理,運算層層嵌套,足以湧現出與人類相當的智慧,因為人類的智慧亦不外如是。在塞爾的中文屋子裡,塞爾這個人、紙、筆、對照表,沒有一樣“理解”中文,但那也沒關係,“理解”是從所有這些東西構成的整體中湧現出來的。



 樓主| 發表於 2024-1-13 11:00:44 | 顯示全部樓層
116, 湧現

接著,說說湧現。

我們想知道,ChatGPT,是怎麼可以一詞一句,接連不斷地輸出一段符合文法邏輯的文章?真神奇!(這讓我聯想到,五十年前,計算器剛剛普及,居然能算加減乘除,一直試都不出錯,它是怎麼算的?)

若有孰悉AI的,知道AI架構有很多”層”,每層一長列,我們假定是一個數千格的數字(或視為向量矩陣)。一層層之間有連接,總的有上千億個參數,超過人腦神經元的連接數。

我講得簡單,事實很複雜。參數是通過大數據,以百千萬億文章的輸入調教出來。

輸入的字詞都是有編號,比方說有英文單字50256個+一個終止符號。

調教是在計算概率,字詞隨後出現的概率。每個參數連接到下一層,都有不同的概率,都有相應的可能性。

我們輸入問題,GPT輸出最有概率的字詞,然後根據當前已輸出的,一直做文字接龍。

文字有前後,字詞有關係,段落能聯繫,邏輯可展現,這沒錯。但你說,這樣一套概率輸出系統,不管它有多複雜,連結有多少組,能輸出各式不同文章,但真能有智能?

還真的是跑出了變異,量變到質變、乃至突變。

讓老GPT算一道大數,如:9999999999 x 123456789。它居然也有計算正確的時候?你說,GPT不可能餵數字資料當語料素材吧?就算有,也不可能給它餵遠超它神經元連結參數的量,一個萬萬億大數可遠遠超出參數量了。

它是怎麼產生輸出?統計出來矇對的?一般都直接用「智能湧現」來搪塞。訓練語料居然還跑出數學能力?我的乖乖!

但如果真想解析GPT是怎麼理解的?何謂的AI的神經元代表什麼意義?OpenAI還真的用GPT-4來解釋GPT-2裡的神經元到底理解了甚麼。

我們說GPT有海量層次,每一層的數千格(神經元),當輸入一個字詞或問題,使得GPT運作,系統運算後所有神經元都會刷新,儲存一個具體數值。大部分的數值為負,少數大於零為正。正數就是被激活的神經元,激活就代表該神經元對該輸入字詞有反應,是敏感的。

怎麼測試?我們把一篇文章輸入GPT-2,全連接層的每一層都有零零星星的神經元被激活,我們把注意力放在其中第N層的第K個神經元。然後通過反向追蹤,去留意到底文章是哪一個詞或哪句話激活了該神經元。然後輸入很多文章、新聞、演說、台詞、廣告等等,看看該神經元又被什麼內容給激活了。

大量工作後,我們統計出假設共有800個詞或句子,激活了該神經元。這時,我們去問GPT-4,問它GPT-2的這個神經元究竟是學會的什麼?GPT-4會根據這800個詞的共性,抽象編造出這神經元的激活代表了什麼,或者說,學會了什麼?

GPT-4會不會瞎編?或說得不準?沒事,可以再核實。用GPT-4給出的解釋,搭建一個簡化版GPT-2的模型來模擬神經元行為,再和老GPT-2對比,就知道GPT-4猜得準不準。

對比簡GPT-2與老GPT-2的神經元,如果一致性高,就表示GPT-2的該神經元就差不多是代表GPT-4說的那個意思。

總的說,OpenAI批量對比了307200個神經元。GPT-4解釋的結果一致性平均有多高呢?百分之37。看起來不高,但這不完然是GPT-4的問題,而是因為我們要求GPT-4以人可理解的確定用詞描述一個抽象的表示。


 樓主| 發表於 2024-1-14 16:05:55 | 顯示全部樓層
117, 神經元

一個有代表性的例子。

第21層的2932號神經元,GPT-2學會的是“加拿大”這個概念。那些能啟動它的內容,很多當然都是原詞“加拿大”。但除原詞外,也有其他詞,比如加拿大人、國家、多倫多、金士頓、北美、。。。許多與加拿大相關的字詞也激活此神經元。可見該神經元對加拿大的理解並不死板,有相關概率,或說〝聯想〞。

可是,不只有上述的詞,還有全球、郵件、媒體、出版社、股份有限公司、行為等等,也在一定程度上激活了21-2932號神經元,雖然是軟激活弱相關,但這也側面說明了,一個神經元被激活,其中代表的〝寓意〞,恐怕沒那麼簡單可以一句話囊括。

再舉另一例,我们來看第19层的1377号神经元。

GPT-4對它的解釋是:比較和類比。

19-1377對以下四句話有反應:
1.清爽的心情和空性的融合,就像水和水的混合那樣,它們非常默契。
2.科學家們就像看魔術表演的觀眾那樣困惑。
3.一個是衡量你的表現,一個是衡量你對團隊的影響,就好比在黑咖啡和加了牛奶和糖的咖啡之間做選擇。
4.取出環中的主要部分的樣子有點像看到多米諾骨牌整個倒下。

上面四条例句中引起19-1377反應的部分。第一句中的是“水和水的混合”,第二句中的是“魔术表演”,第三句中的是“之间”,第四句中是“看到”。

做為一個人類,你能理解這個神經元究竟學會什麼?但看此四句話,確實GPT-4寫比較和類比,再想看看,好像也對。

還有諸如,17-3218學會的是“一句話表達完了”;30-28學會的是“時間”;0-5學會的是“與歷史和皇室”有關的內容;2-8學會了和“停止”有關的概念;10-16學會了“識別複合詞的詞根”。

為何說GPT-4對GPT-2的神經元解釋不到位,現在應該可以了解了吧!實際上GPT-4對第0層神經元的解釋力是最好的,有超過50%的一致性,對之後的層級解釋一個比一個差。可能到第8層只有12%解釋得還可以;到第47層只剩2%解釋得出來。

我們用人的語言,已經無法簡單概括某一神經元為何對某一些字詞〝興奮〞。似乎神經元統計出一種超越顯語言之上的〝感應〞。相關性會突現出〝聯想性〞,聯想性會昇華為〝印象性〞。我們根本就不可能用語言清晰地描述後面深度層級神經元的邊界。對語料的理解,神經元之間以一種人類難以描述的方式互補地、複雜地纏繞在一起。

但單一神經元真的包括那麼多的意思?其實不然,也許比較/類比、皇室相關、一句話表達完了、時間、複合詞根等等,在GPT裡,才是有效的歸類、基礎的概念。畢竟,它可是把人類文章幾乎看了個遍的存在。

在大模型中,某些人類概念裡,邊界清晰的功能,實際上已經〝裂解〞到相當多神經元的功能中,分佈在各層各處,它們分別能適應各種不同的應用場景。

需要足夠大,足夠多的神經元,才可能表現出如此紛繁複雜的抽象概念出來。甚至連情緒的成分都可以識別。

人工智能冥冥之中,抓到了語意之上那抽象不可琢磨的部分。


= = =
來,訓練有術的GPT就能理解很多有病的句子,把斷句、邏輯、意義甚至情緒給說明出來。

一個小偷偷偷偷走了東西。
人要是行,幹一行,行一行。一行行,行行行要是不行,幹一行,不行一行。一行不行,行行不行。
掉在地上,掉在地下。
叫你幹啥,你偏不幹啥,不要你幹啥,你偏偏幹啥。
。。。



 樓主| 發表於 2024-1-15 16:01:52 | 顯示全部樓層
118, 人啊

我們想想,人嬰兒時期,在學習語言方面,開始神經元一樣是自由連結的。輸入是語音與影像,輸出的是口語。經過了一段時間的呀呀學語,小嬰孩懂單詞了,然後突然會講話了,居然可以組出一段符合文法的描述,如「廚房的桌上有蟑螂」。

這句話可能大人從來沒有直接跟他對話說過,但他就是會了。他還會觸類旁通,說出更多符合文法的句子,你聽都沒聽過。這段時間的小孩,喜歡說話。

這時的大腦,已經開始被規範化了,許多沒有意義、不符合文法、不常使用的會被棄置,大腦神經元連接被有指向性的〝裁減〞了。有捨有得,語言規範入大腦,於是懂得聽言說語了,連說話的腔調、聽音的能力也一併被固化。

自然語言的學習,包括人工智能大語言模型,都不需要學文法。文法自然顯化在語句的規則中。

除了語言,我們許許多多的口味、習慣、文化、情緒表達、。。。也一樣全方位的被規訓,於是有了人的〝俗氣〞,以融入社會。

這嬰孩學語與大語言統計訓練,對神經元的重新組織或規訓,難道大相逕庭嗎?都是在學習,都是在規範。

那你說,人相較於人工智能,在語意之上的理解更強嗎?似乎不能。甚至於,人工智能在各特定方面都能更勝一籌,從下棋、打牌、看X光片、分析蛋白序列、自動駕駛、。。。

人工智能不只有學語言,它的輸入,訓練素材也可以是照片、動態視頻、氣味、環境溫度、壓力、氣流。連可控核聚變的等離子磁流,DeepMind都可以用強化學習的方法,最後用〝直覺〞來給線圈參數,動態完成想要的等離子形狀。

直覺要是怎麼實現的?唯手孰爾!

你等等,要說AI單項很強,是事實我認,但通用項目,綜合項目,複雜局面,人類不一定輸。就舉一簡單案例,比如,人腦辨別一隻貓,簡單吧。如果讓AI做貓臉辨識,要輸入萬張貓臉來訓練,把幾千上萬億個神經參數先給調教。人不用多看狗、貓、鼠、熊、牛,馬、驢、。。。等等,可以很快學辨別牠們的不同。但AI呢?你不得不餵它千千萬萬張各式各樣不同物種的不同形體、姿勢、角度等,才可以使之做到明白地辨認。這還不包括卡通裡的貓、貓型布娃、裝扮貓女等,小孩一看都知道是貓,AI怕是有困難吧?

我們雖不一定說得出來,怎麼一眼認就知道是貓,但這〝直覺〞確實是好用。人一樣也有很多說不清道不明的情緒、感受、印象、抽象、藝術,文字難以包括。連一段夢境,有時用言語也難以描述。

這麼槓,好像有道理,但,抱歉,又錯了。人不要高估自己,與AI的複雜度相比,人還是太簡單了。

過去,人類在教電腦下棋,總需要給它相應的下棋規則。玩象棋得告訴它馬走日、象走田,為了得勝,甚至連棋譜定式、恨不得通通載入電腦。

但這確實不是太有效的方式。實際上,人工智能只要利用大數據+大算力,暴力破解、強化學習、深度訓練的方式,下個百億局,它自己就可以完成突變。

這從Alpha-Go輸給Alpha-Zero,就可以知道了。前者就是有人類的介入,給它餵大量的高手棋局,做為判斷基礎。後者自監督學習,擺脫了人類棋型的限制,FREE RUN出來的。後者更強!

訓練棋局不需要先給棋步;玩遊戲不需要先給規則;學習語言不需要先教文法;自動駕駛不需要先給交通規則。它在過程中都可以歸納出來,還能找出新的玩法,人類都沒料到的。

算力才是王道,人類總結的知識只是幹擾。這些人類構建的知識有明顯的天花板,會限制發展,用大數據+大算力,暴力突變的方式,沒有人類介入拖後腿,人工智慧學得更好!


= = =
在语音识别领域,上世纪七十年代的主流方法是把人类的语音知识 —— 什么单词、音素、声道 —— 教给计算机……结果最终胜出的却是根本不管那些知识,纯粹用统计方法自行发现规律的模型。

在计算机视觉领域,科学家一开始也发明了一些知识 —— 什么去哪里找图形的边缘、什么“广义圆柱体”等等 —— 结果那些知识也是啥用都没有,最终解决问题的是深度学习神经网络。

现在GPT语言模型更是如此:以前的研究者搞的那些知识 —— 什么句法分析、语义分析、自然语言处理(NLP)—— 全都没用上,GPT直接把海量的语料学一遍就什么都会了。



 樓主| 發表於 2024-1-16 11:27:29 | 顯示全部樓層
119, 所有的可能性

讓我們回到AI輸出文章這事來談。

想像一段文字,就說是中文吧。就說有一萬個中文加標點符號字符,要輸出一篇五百字的文章。

直接就亂敲,根據組合,那將有一萬的五百次方種組合。這數字太大,大到對人類來說不只是天文數字,而根本就是無窮大了。當然,這量級對目前超級電腦來說也一樣是不可處理的。但從數學上講這是個大數,但卻遠非無窮大。這依然是可數的自然序列,還不如我們的自然數,可一個一個一直數到永遠。

但是,如此多的組合,絕大部分是亂七八糟不符文法的文章,一篇「的/低。,殼德氜會~差咪棋袲仾;-。呵秠、鈹,{。(剾?嗤. . .」是什麼鬼?統統刪去。只有符合文法的會被留下,這就少去99.999..%。

然後,字詞沒理的也通通再棄,只保留合理詞組。「蘋」後面接的大概率是「果」,「璃」前面大概率只會接「玻」「琉」;還有固定搭配的組詞,如「尷尬」「魑魅魍魎」等等固定用法的配對;成語、諺語、詩詞、歌曲、習慣用語、. . .。這裡大語言模型規範出學習到的,又會刪除一大部分有病不合理的文章。

即便刪到最後,一篇符合文法、有結構的文章,也可能不合邏輯。比如前面是肯定,後頭又否定;一張有性別的紙,前面說它是女的,後面又變公的等等。這些一樣會被大語言模型抑制輸出。

如果要輸出的文章是講美食的,那大概不會出現中子星、波動函數;如果是談子宮肌瘤的,與秦始皇何干?要抓魯迅,跟哈利波特的樹人有啥關係?

你說至此,本來的一萬的五百次方,剩多少?答案是還剩很多,多到每次問AI同一題目的作文,它還是可以輸出篇篇不同的文章(但文章的相似度明顯會提高)。

它基本可以用正確文法,創造出符合邏輯的種種人類想得到或想不到文章了。

大數據把所有人類至今的文章,灌入一台神經元連接總數大於人腦的計算機中反覆調教,相當於在訓練中在掌握人類了文字語境,用一種人類搞不清楚的裂解+重新組織的方式。

或許不是AI太厲害,而是人類太簡單。

實際上是人類所有的文章,從大數據的角度來看,億萬篇?還是2樣2新波。

人類的文章,想法思維的有限性。如同棋步,要有模型、定式、語法等等,不然處理不來。(不然,你隨口來一句不合文法的句子?或者把句子倒過來念?)

人類的侷限性很高。

我們以為文章是無窮無盡的,以為總能天馬行空自由跳變,但實際上所有的文章都在所有可能性的池子裡。只不過池子很大,大到無法估量,而人類歷史又太短,人類一輩子就不可能遇到兩篇哪怕相似度高的文章。

比方說吧!一首五言絕句,個字。當然詩本身還是有音律要求、起承轉合的。AI只要學得夠多,便可以抓住了隱隱中的規矩與秩序。

以春天為題的五絕,在這條件下,還是可以有非常多,多到人數不完,但能有無限多嗎?不能,因為它還有平仄押韻、格律對仗、主題相關等等限制。


我現在正在寫文章,我不知道我腦子裡下一句話明確是什麼,為何是這個詞,我可能有好多種選擇可以寫,但此時此刻我〝直覺〞選擇了這種寫法,最後輸出了這篇文章。如果我文章丟了,再來一次,我的具體字詞、表達方式,可能又不一樣了。如果你找到我上次寫的,問我,這次寫的跟上次寫的怎麼哪哪不同,我會編造〝事後解釋〞給你聽,但我事實根本沒有比較上次寫什麼,我就只是重來重新編撰而已,而大腦的思路這次換了一條罷了。但因為上次寫過,思路還在,兩篇文章的相似性就高。

另外,每個人寫作都有自己的慣性,這慣性/用語/章法,如同文字指紋。也因為如此,我兩次輸出的文章也總會有相似。
(所以,文字指紋才可以用來作為是否抄襲的判斷依據。)
(不也有人把紅樓夢後四十回的用語統計出來,認為不是出自曹雪芹之手?)。

我大腦有關語言處理的部分,也是一個被中文規訓過的神經元連接,一個有傾向性的神經元集合體。

我一樣有說不清到道不明的直覺,源自於被規整過的神經元連接,來推演下一句話應該的輸出,跟AI也沒啥不同,只是比它弱得多。


您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

快速回復 返回頂部 返回列表