如果身邊的東西會說話,會發(fā)生什么?
而我早已習以為常。
走出教學樓的時候發(fā)現(xiàn)又下雨了,懷里的筆記本嘖嘖兩聲,開始吐槽:“別人家姑娘出門招桃花,你出門招雨,少女你命格清奇啊。”
“這么愛說風涼話,要不要把你扔雨里涼快涼快?”我沒好氣地說,但還是把電腦裹在外套里,扣上外套帽子沖進雨里。
“那個...你可以把我舉在頭頂,可以擋一點點雨。”筆記本弱弱地說。
我愣了一下:“你是不是傻,主板短路了我可以去死一死了。”
“可是你剛剛發(fā)完燒...心疼你。”筆記本小聲說:“做我女朋友吧,我喜歡你。”
啥?我的筆記本電腦好像跟我表白了。
我抱著筆記本跑到屋檐下,舉起來看了看:黑色,不丑,可也不是太帥,身材不錯,不重,我手指拂過外殼,磨砂表面很性感。
“好。”我痛快地答應了。
晚上。
“別熬夜了,”屏幕暗下來:“文檔我替你保存了,乖,睡覺去。”
“讓我再寫一段...”我打著哈欠說。
前置攝像頭的燈和屏幕一起亮起來:“看你額頭又冒痘了,還熬?”
我被自己丑哭了:“好吧好吧,那你十分鐘以后記得把自己關掉。”
“其實你長痘也很漂亮。”
我轉身的時候他在我背后說。
第二天。
“喂,你是不是睡傻了?怎么這么遲鈍?快給我打開word!”我不滿地嚷嚷。
“昨天清理磁盤碎片又看到你前男友照片了,不太爽。”筆記本悶悶地說。
“啊,那你刪掉好了,”我一邊敲鍵盤一邊說,但是看到彈出來“確認刪除?”的窗口,猶豫了一下:“等等,先隱藏了吧。”
很長時間的沉默,只剩下我敲擊鍵盤的聲音。
耳機里的論文專用白噪聲突然停了,換成了鋼琴曲flower dance ,我最喜歡的曲子。
“午飯時間到了,休息一下,聽完這首曲子去教學樓門口取快遞,我給你訂了鮮花。” 前奏的對白結束后,筆記本對我說。
“我靠你用我哪個銀行賬戶訂的?我很窮的好不好?!”我嚇得鼠標都扔到了桌子上。
“不貴,你少去荒郊野嶺浪幾圈就省出來了。”
我沒事就喜歡一個人去莫名其妙地地方徒步,筆記本大概覺得我老這么搞不安全。
“那也是我的錢啊嗷嗷嗷嗷...”
“放心,都在你的日常開銷范圍內,而且我?guī)湍阏砹艘幌逻@段時間的金融信息,你上周買的股票漲停了,建議你明天開盤就出手。”
“Roger that !”天外橫財,我忍不住開心地喊。
一個月后。
“別百度止咳糖漿了,看你齜牙咧嘴的也不想喝,雪花梨特價,要不要買?”
一個在線水果商城的網頁出現(xiàn)在屏幕上,紅色大字寫著雪花梨促銷。
“咳咳...買買買,整箱的買”我看著照片上晶瑩剔透的梨肉流口水。
兩個月后。
“我說,為什么每周一都給我送鮮花?。?rdquo;我看著陽臺上的花瓶問我的“男朋友”。
“因為每個周一你都很焦慮。”筆記本的聲音好像帶著點笑:“我怕你把我砸了。”
“嘿!別取笑我!”
“而且...”
“而且什么?”
“沒什么....”筆記本欲言又止。
“我想看電影,幫我打開ps i love you。”我懶得猜他,直接命令道。
筆記本沉默了幾秒鐘,影音軟件打開,播放的卻是生活大爆炸。
“看這個吧,最新一季出來了。”
我笑的眼淚都出來了,用光了一整盒紙巾。
三個月后。
“喂,你的算法有問題,電腦只能生成隨機數(shù),所以你不能指望人工智能自發(fā)的做什么事。”筆記本打斷我的思路。
“如果我設定一個很強的動機呢?”我抓著腦袋問。
“這會出現(xiàn)類似人類的自發(fā)行為,但是和人類的行為邏輯是不同的。比如說,人類的感情邏輯可以是“我愛你,所以我所做的一切都是為了讓你開心”,但你不能把“我愛你”設定為人工智能的動機,因為它無法理解愛這個抽象的概念,人工智能的感情只能是“盡可能的讓你開心”,它可以根據你輸入的內容,從函數(shù)庫里調取能讓你開心的概率最高的輸出函數(shù)。”筆記本解釋了一大通。
“嗷嗚……好麻煩,那你替我寫算法好了。”我把頭埋進抱枕里,覺得頭大。
筆記本無奈地說:“你知道,我不能...”
我猛地把頭抬起來:“那你的行為邏輯呢?”
“我愛你。”筆記本安靜地說。
“可我現(xiàn)在不開心。”我的聲音開始變得干澀疲憊。
“好吧,我的設定是輸出能最大概率提高你情緒值的函數(shù),”筆記本頓了頓,聲音開始變?。?ldquo;如果說實話能讓你開心的話……”
一大滴眼淚落在鍵盤上,屏幕上出現(xiàn)橘紅色的警戒線:warning:情緒接近失控。
“你別...我給你講個笑話好不好……我給你訂暑假出去玩的機票...我...”筆記本開始變得語無倫次。
我把手放在黑色鍵盤上,艱難地問:“是他寫的設定?”
“是的。”
我終于忍不住,眼淚嘩嘩流了下來。
error:情緒失控,程序崩潰。
警戒線變成黑色,筆記本說道:“對不起,我現(xiàn)在只能重置自己了。”
我抬起頭,看見電腦自己開始重啟,restart的進度條上,一只搞笑的小狗一點點地前進。
屏幕終于重新亮起來,筆記本里傳來前男友的聲音:是不是又哭了?我錯了好吧?
“你又騙我,我還以為你的AI終于有了自主意識。”我抽了一下鼻子,說。
他嘿嘿地傻笑起來:“怎么可能,計算機沒有未知這個概念,連生成的隨機數(shù)都是假的,這就注定AI得所有行為都是可以被預知的。這不是你一直持有的觀點嗎?你是對的。”
前男友和我的研究方向都是人工智能,為了測試,也為了好玩,我們在對方的電腦里裝了自己設計的人工智能程序。
六個月前,他暈倒在電腦前,我設計的人工智能撥打了120,他被診斷出腦癌晚期。
我無法理解為什么他沒有因病中斷自己的研究,我一度生氣地拿走他的電腦,希望他好好休息,而不是注射完止疼劑后強撐著整理文獻。
“讓我完成它,這對我真的很重要。”他安靜地乞求,瘦骨嶙峋,眼眶深陷,我不知道怎么拒絕。
于是在他生命的最后兩個月里,叩擊鍵盤和鼠標的聲音整天在病房里回響。
“親,今天周一,記得去取鮮花,最后一次給你訂了呢。”筆記本里面,他的聲音有點虛弱,像他離開的那天,上午他說,親,把你的電腦拿來,我測試一下程序。下午他就離開了,那是個周一。
“最后一次?你是要結束這個程序了嗎?”我覺得這很殘忍。
他愧疚地說:“我也想一直陪你啊,我一直想做出來具有自我意識的AI,可是對不起,最后還是沒有實現(xiàn)。所以這個“我”并不是真正的我,如果你去看源代碼,你就可以準確地知道我要說的話,要做的事。”
“那你給我查看權限,我有個心理準備。” 這不是“他”,只是AI而已,我提醒自己。于是我擦干眼淚,冷靜地說。
“我先給你簡單解釋吧,之前在你電腦中寫的AI,設定的目的函數(shù)是“讓你開心”,這就相當于為AI設定了一個人格。”每次談到專業(yè)知識,他都會有點嘚瑟:“我還是很擅長逗你開心的,對吧?比如淋雨感冒不開心、收到花會開心、喝止咳糖漿不開心、吃水果會開心……”
“你知道你走以后,我會想看PS I love you,只是想對著電影痛快地哭一次。”
“所以我把那部電影刪除了,換成了生活大爆炸。”他溫柔地說:“你知道,有時候人們不是因為開心才笑,是因為笑了才開心。”
“你也知道我對著你留下的AI,總會有情緒崩潰的一天。”我沒有說出后半句:“因為這個AI的一言一行都是你的影子。”
“我不知道,我只是覺得有可能會發(fā)生,所以我給這個AI賦予了另一個人格,在你情緒崩潰之后啟動。”
“是設定了另一個目標吧?優(yōu)化的目標函數(shù)是什么?”
“讓你忘記。”
我愣住了,不,我不想忘記。
“這個AI的源代碼,以及我們之前的照片和記錄,我都已經隱藏并加密了。”
“不要!”我忍不住喊出來,即使是你的影子,我也想不想讓它離開。
“別任性,根據你輸入的信息分析,這三個月里,你沒有走出過學校,除了這臺筆記本你沒有跟任何人說過話,”他的聲音在我的喊叫中顯得格外冷靜:“生命里那么多可能,我沒辦法全部寫成函數(shù)幫你分析,你需要真實的人在你身邊。”
”
很久的沉默。
“但是研究資料我放在桌面上了,給你參考,你肯定能寫出來比這個更好的AI,不要活在我的影子里。”
“另外,我?guī)湍泐A約了你之前的心理醫(yī)生,明天記得去找她,告訴她你最近的狀態(tài),告訴她以前那種抗抑郁藥你不想再吃了,副作用很強。”
“幫你訂了車票,等忙完這段時間,陪家人出去玩一趟。”
沉默。
“再見。”
電腦里的聲音好像有點不舍,我說不出來話,只能看著電腦又一次顯示了“restart”的指令,屏幕一點點地暗下去。
熄滅的屏幕上,顯示出來一行話:
“PS I love you”
已有0人發(fā)表了評論
您需要登錄后才可以評論,登錄| 注冊