首頁 > 遊戲

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

由 哲科園 發表于 遊戲2022-12-31

簡介11有限的人工智慧商業應用場景上個世紀70年代初和80年代初經歷過兩次寒冬以後,人工智慧的研究就從創造通用的類似人類的智慧思考機器上轉向了一些具體的問題,語音識別,計算機視覺,自然語言處理

負二次方跟符號怎麼打出來

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

這幾天ChatGPT火爆出圈,繼幾年前的阿爾法狗之後,再一次引起社會對人工智慧的關注。OpenAI的聯合創始人馬斯克評價道:“好得可怕,我們離強大到危險的AI不遠了。”

AI似乎現在表現出了不亞於人類的創作力,會寫作文、編程式碼、創作極劇想象力的繪畫作品。

那個能夠在智力上碾壓人類,替代人類統治世界的,危險的機器真的就快出現了呢?

直接說結論:

如果目前的演算法和技術沒有根本性和突破性的進展的話,人工智慧的理想依然遙不可及!

這個結論中的人工智慧,指的是的大眾理解的那種有獨立思考能力的人工智慧。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

大眾認為的人工智慧和業界目前實現的智慧是完全不同的兩個東西。

按目前的通行的方法,通常把人工智慧分為三個級別:

弱人工智慧。能且只能解決特定領域問題的工作。不具備推理和創造能力。

強人工智慧。 可以代替人完成人類所有工作的人。具有推理學習能力,能理解人類自然語言和並和人類直接溝通。

超人工智慧。能超越最聰明的人類,創造出人類無法創造出來的知識理論和產品。

目前業界實現的人工智慧,包括碾壓世界冠軍柯潔的阿爾法狗,和當前火爆的ChatGPT都是弱人工智慧。

而大眾認為的人工智慧是強人工智慧甚至是超人工智慧,類似科幻影視作品裡的高智商機器人。

遺憾的是,對於如何實現有類似人的感知,推理,創造能力的強人工智慧。目前業界和理論界連一點實際的頭緒和方向都沒有!

01

目前的AI的優勢僅在於強大的計算能力

阿爾法狗能碾壓世界冠軍柯潔,它的優勢在於計算能力而不在於推理能力。現在的ChatGPT之類的AI的創造力依然是來自於強大的計算力。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

事實上,圍棋,象棋這類人類智力競技遊戲,本質上也不是比拼得推理和邏輯分析能力,比拼得是記憶力和計算能力。

前面的佈局依賴於對各類佈局優劣的熟悉程度,後半盤棋盤縮小後就是完全比拼計算能力。所以現在的圍棋世界冠軍越來越年輕化,年紀大了,計算能力下降,棋力會下降。

而記憶力和算力正是計算機具有的碾壓人類的優勢。

媒體宣傳人工智慧往往強調圍棋的勝利證明了人工智慧解決了複雜問題。其實,嚴格的講,圍棋是一種簡單的計算難度非常大的遊戲,而不是複雜的遊戲。

相對於其他遊戲,它的規則最簡單,說它困難,是可能性太多,每一步選點的優劣很難判斷。

但是棋盤上每個點的價值不一樣,它已經不是不可計算的問題,只是計算量太大,原來的計算機不能在有限時間內完成這樣的計算,才把戰勝人類的時間拖延到前幾年。

02

透過圖靈測試就是實現了人工智慧嗎?

人工智慧的設想早在上個世紀80年代就由圖靈提出來了,他同時也是計算機科學之父,參與了早期的計算機研發。

圖靈還提出了確認人工智慧是否實現的標準——圖靈測試:如果人類不能發現與他對話的是一臺機器,那麼可以認為機器已經具有了人工智慧。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

前些年有人工智慧產品宣稱通過了圖靈測試。然而,圖靈測試並不是一個標準的測試。

不記得以前在哪裡看到一個姑娘說不論何時什麼場景,安慰一個電話裡抱怨的閨蜜只需要三句話:

嗯(第二聲)

啊(第二聲)

怎麼這樣?

隨機組合運用即可。這姑娘簡直是開發透過圖靈測試程式的天才!提供了一個不到十行程式碼就能實現的解決方案。

根據一些人社交網站上聊天的糟糕體驗,我們還可以提煉一個更簡單的解決方案:

(第二聲)

(第三聲)

呵呵

事實是,那個號稱透過圖靈測試的程式就是用一些模稜兩可,沒有實際含義的對話透過測試的。

不過呢,對於普通人來說,只要和目前的各類聊天機器人比如siri,小冰對話看看能不能很快確認對方是個機器人就能知道人工智慧的實際進展了。

你們和ChatGPT對話時覺得它水平更像人類了嗎,已經看不出來它是機器了嗎?

03

語義識別和無人駕駛更能反應目前的人工智慧水平

聊天機器人涉及的人工智慧領域專業術語,叫自然語言的語義處理。

另一個普通人容易觀察人工智慧實際進展的領域是無人駕駛。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

目前真正意義上的無人駕駛的進展情況是,一線的工程師還在採用面向DEMO程式設計的前沿工程方法實現企業高管的偉大夢想(為高管和媒體吹過的牛做演示道具)。

由於本質上目前的人工智慧演算法還是統計和擬合,這兩個領域的實現目標難度非常大。

語義識別的麻煩是人類識別語義的時候是依賴於上下文和對話場景的,如果說上下文還有能資料化的話,對話場景這個就不好資料化了,人類語義理解還大量依賴表情和肢體語言,這個就更難搞了……

至於無人駕駛,目前的一個可行的實現方法是對路側改造。

可是自然語義理解對人類來說不過是個小兒科的任務,人類駕駛也不需要額外增加很多路側輔助裝置。如果這兩個領域只能達到目前這個水平的,其他更復雜的場景就更沒法指望了。

04

人類能在資訊不完整的複雜情況下做決策

如果有人不相信數學是簡單的,那是因為他們沒有意識到人生有多複雜——馮。諾依曼

人類對自己擁有的能力早已習以為常了,在感慨人工智慧的神奇時,忽略了人的大腦和智慧是經過35億年生物進化的產物,其精巧與高效遠超出人類自身的想象。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

計算不是它擅長的事情,只比較計算能力的話,不要說現代的超級計算機。它連計算器,乃至於古代的計算工具算盤和計算尺都比不上。

但它幫我們可以處理複雜的人生。現在人工智慧取得進展的影象識別,語音識別、基於語境場景對話的這類任務其實對人類來說不過是再簡單不過的任務。

就像下圍棋這樣的事,涉及到的資料相當單一,輸入的資訊也相當單一。人類世界裡有多少

這麼簡單純粹的事情

呢?就在下圍棋的同時,柯潔還要吃東西,聊天,識別視野內的各種物體,看各種包裝上的包裝符號和文字。

要是跟他對戰的超級計算機也要同時幹這麼多事,只把就忙不過來了。

更厲害的事,人類的決策大多是在資訊不完整,甚至混雜了大量虛假資訊的情況下完成的。

這對計算機來說更是沒法辦到的事情。

05

不可計算問題

目前的計算機基礎工作原理依然是基於圖靈的的通用計算理論和馮·諾依曼的體系結構。

這就意味著它只能解決可計算的問題。那麼從理論上說,那些不可計算的問題它是處理不了的。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

有一類問題屬於數學上可以計算,但實際上由於計算量過大而無法計算出結果。這類問題是在演算法時間複雜度上,是指數形式或者階乘形式。

也就是計算出結果需要的時間隨著資料量的增加,呈指數增長甚至

階乘

增長。比如直接計算2的N次方

或者

N的階乘

那麼一旦資料量N大到一定程度,即使消耗從宇宙誕生到目前為止的所有時間也沒法完成計算。

這種複雜的問題其實在生活裡相當常見,比如如果要去N個地點送快遞,如何尋找一條不重複透過各個快遞點的最短路徑,或者如何使用最少的集裝箱把不同規格的大量的包裝箱裝進去。

一旦沒有沒合適的近似演算法或者必須求最優解,就只能使用窮舉搜尋的辦法,那就會遇到這樣的麻煩。這樣的問題無法用計算機解決。

06

不可判定問題

前一類問題是不能在有限時間內計算解決的問題。還有些問題是無法透過計算解決的問題。比如停機問題。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

所謂停機問題是說計算機沒有辦法判定一個程式能不能正常結束,這個問題的另一種表達是計算機無法判定一個程式會不會進入死迴圈,

這是經過嚴格邏輯證明的結論。這個問題不是個獨立的問題,是代表了一類不可判定問題。這類問題計算機無法解決。

另一個經過證明的命題是不可計算的函式比可計算的函式要多的多。可計算函式對應的是自然數集合的可數無窮大,而所有的需要計算的函式是無窮不可數集合。

透過哥德爾的不完備定理也可以推匯出計算機不可能透過計算的方式得到一個公里系統的全部真命題。

而人類似乎可以輕易的歸納識別出真理,比如像牛頓運動定律,愛因斯旦的相對論理論是不可能透過計算機自己推匯出來的,而人類可以突破自己的感知限制從一些簡單事實中總結出來。

這個總結過程並不是完全邏輯推理的產物,而是依賴科學家個人的靈感產生的創造力。

07

不可解的複雜系統問題

還有一類不可解的問題是複雜性系統的預測問題。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

蝴蝶扇動翅膀可能引發一場龍捲風。蝴蝶效應是對物理混沌現象的類比舉例。混沌是一種複雜系統。由於系統的初始狀態的微小差異,會導致結果的大幅偏差,整個系統運動的趨勢無法預測。這樣的現象其實非常常見,氣象系統就是混沌系統。去年獲諾貝爾物理學獎的科學家就是預測氣候變化的。

複雜系統在現實世界中非常廣泛,除了混沌,還包括凝聚態物理,非線性動力學,複雜系統生物學,數學中的分形,複雜經濟學…

單獨的蝗蟲危害性不大,一旦聚整合群破壞性驚人,高度自組織的蜂群,蟻群,都屬於複雜系統。

人類社會系統更是更加複雜的系統。

複雜系統的研究發展揭示了還原論方法的缺陷,我們這個世界不能被簡單分解成各部分分開研究,微觀領域的規律和組合後的系統規律可能完全不同。

目前雖然計算機無法預測複雜系統的未來演化過程,但是可以模擬和模擬來幫助人類研究和理解這類系統。

08

不可預測的的非理性世界

圖靈在提出圖靈機的概念時,就證明了停機問題是不可判定問題。但他認為人腦的推理過程和圖靈機其實是類似的,不過也是個機械的計算裝置。計算機不能解決的問題,人類的智慧也不能解決。

把人類的智慧能不能解決這些計算機不可解的問題暫且擱置一旁。人類社會和整個地球生態系統是個超級複雜系統確實確定無疑的。人類天天在這個系統裡生活,與之發生互動肯定無法僅僅依靠計算來決策的。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

卡尼曼把人類的思考活動分為慢思考和快思考,他認為人類生活中的大部分決策依賴的是直覺式的快思考。也就是說,非理性才是人類思考的常規操作模式。

嗯,我們生活的這個世界並不理性,充滿了各種意外和驚奇,人類用非理性的思維方式來應付這個非理性的世界。

大腦這個非理性的工作方式還觸及了一個哲學問題:人類真的存在獨立意識嗎?如果我們所謂的自主決策不過是類似生物條件反射的應激反應。

然而,這個看起來非理性的決策方式很多時候並不比計算的結果差,比如圍棋高手們很多時候的選點雖然沒那麼好,但是也是相當好了,不是醉漢式胡亂隨機選擇。似乎人類很多不理性也具有相當的理性。

09

人類經常靠非理性的經驗和直覺解決問題

到目前為止,人類處理的大多問題都不是靠計算解決的,

晚上吃什麼?選擇看那本書?誰比誰更善良?捐款優先用於失學兒童還是改善生態環境?那段音樂更好聽…

這類問題基本上都是依賴於人的經驗和感覺來決定的。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

從我們這些直觀感受而言,人類社會的大多事件是不存在數學可計算的普遍規律的,是一系列隨機事件的產物。

從人類目前認知自然世界的大歷史看,我們生活的宇宙只誕生了一次;地球上的生命只出現了一次,所有生物都來自於遠古的共同祖先;有智慧的生物也只產生了一次。

說這些事件是客觀規律發展的必然結果,不如說更像是眾多機緣巧合偶爾形成的結果。

量子微觀世界的不確定性也在告訴我們,隨機性,不可預測性才是這個真實世界的常態。

如果這才是世界的本質,圖靈機無法產生類似人類的智慧的。人類的那些所謂非理性的,甚至情緒化的思維方式都是人類智慧的關鍵組成部分。而這部分能力是無法靠計算實現的。那麼現有的演算法和計算機結構沒有根本性的改變的話,強人工智慧是不可能實現的。

10

主觀感覺對於智慧的重要意義

機器沒有感覺,無法理解輸入訊號的實際現實含義,目前的計算機只能處理經過人工處理轉換過的規範化的數字訊號。

人類處理的資訊來自於自身的感覺,這個感覺有很強的主觀性。也就是說,計算機能夠接受的訊號不過是基於人類自身偏見和認知侷限性轉換過的資訊。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

它不是來自於原始世界的直接可靠資訊,如果沒有人類的前置性資訊處理工作,它根本無法工作。

而人類的很多感覺,僅僅對人類自身有意義。如顏色本質上可憐光是一種電磁波,我們能夠看見它是視覺和大腦給我們提供的一種感官想象。比如溫度,其實是微觀粒子運動的宏觀特徵值。

按我們的視覺感官看到的世界,和真實的世界的樣子並不一樣。計算機依賴於人類的認知,也就自然被侷限在人類的認知範圍裡。

還有些感受無法量化傳遞給計算機,比如喜怒哀樂這種帶有強烈個人主觀性的情緒。還有善惡,好壞,公平正義這類人類價值觀。

如果計算機只能接受到人類感官的資訊的微不足道的一小部分,它又如何能發展出與人類相當的智慧呢?

11

有限的人工智慧商業應用場景

上個世紀70年代初和80年代初經歷過兩次寒冬以後,人工智慧的研究就從創造通用的類似人類的智慧思考機器上轉向了一些具體的問題,語音識別,計算機視覺,自然語言處理…

以ALPHA狗戰勝李世石,柯潔為標誌性事件,開啟了第三次人工智慧熱潮。

ALPHA狗、ChatGPT

所用到的神經網路,深度學習演算法早在上個世紀就被提出來了,演算法上沒有根本的創新。演算法的本質是還是基於大資料的統計,歸納,擬合。而不是推理,分析。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

實現的也都是弱人工智慧,僅僅是在視覺,語音識別,遊戲等等幾個的人工智慧細分領域取得了突破性進展,從技術上來說有它的價值和意義,然而對於實現強人工智慧來說基本上可以說是毫無進展。

從商業應用的角度來說,商業落地非常碎片化,只能用在一個實現場景裡面的一個具體功能,比如沒有自然語言語義識別,純粹的語音識別沒法完成一個完整基於語音的互動。否則真的可以大量替代目前的文字選單按鈕的互動模式了。

目前的ChatGPT其實能實現具體幾個單一創作功能,也並不能植入實際商業場景中,完整地替代一個人的互動式工作。

應用商業化尚未展開,倫理道德的問題已經出現了,比如大資料包括人臉蒐集的隱私問題。還有更復雜的類似無人駕駛遇到電車難題的問題,依賴程式決定犧牲誰實在是很難接受的事情。

這也限制了目前人工智慧商業應用領域。

12

人工智慧理論上依然存在實現的機會

目前沒有理論證明強人工智慧不能實現。但隨著對人類自身的瞭解,現在越來越多的認為人的感覺和非理性的決策,包括那些看起來不可控的情緒化反應都應該是視作人的智慧的組成部分。

與目前的計算機實現的只能解決某個很窄的領域,基於特定的資料輸入和確定的規則進行決策不同。人類是基於不確定的場景,不確定的綜合類資訊進行決策,在這方面的能力而言,ALPHA狗智慧水平還不如一個五歲的小孩子。

由於演算法上沒有新突破,商業化應用領域拓展有限。近兩年,人工智慧的熱潮又在消退,有人又開始討論第三次人工智慧寒冬是否正在到來。

我們先把人工智慧可能引發的倫理問題放在一旁。從行業實際進展看看,有那些新的技術能夠提升目前的弱人工智慧水平,說不定哪天量變到質變,就找到實現強人工智慧的方法了。

13

可能的實現途徑(一)——量子計算機

首先呢,量子計算的進展會提升人工智慧的水平。從理論上講,量子計算機可以指數級別的提升計算機的算力。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

一臺量子計算機的可能具有的計算能力,可以輕易超過目前世界上所有計算機計算能力的總和。

目前的第三波的人工智慧取得的突破其實就是計算機算力的突破,神經網路演算法上個世紀已經提出,但受限於當時計算機的效能沒能去的進展。

量子計算機即使如理論預期一樣能夠指數級別的提升計算機的計算能力,然而它在本質上依然是一臺圖靈機,它無法從根本上解決那些演算法時間複雜度是指數級別或者階層級別的問題,也無法解決那些不了判定的問題。

也就是說,僅僅靠算力的提升只能一定程度提升目前的弱人工智慧的運算能力和應用範圍,不能就此實現類似人類的推理和決策。

14

可能的實現途徑(二)——讓它自己進化

另一個方法就是改變軟體的演算法。有些觀點認為人類的智慧不是計算出來的,而是進化出來的。

一個小朋友從出生對這個世界一無所知,到掌握很多的知識的過程是學習和經驗積累的過程。還有些人類的行為模式即使是先天遺傳獲得的,那也是生物進化,適應自然世界後積累的經驗。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

比如你要教一直機器人狗狗學習走路,直接預設規則和演算法不算是智慧,應該讓它自己走,跌倒,撞牆,掉進水裡……然後設定獎勵和懲罰機制,記住正確的走路方式,這樣它就能學會走路了。

這類方法容易和目前實現的深度學習演算法,特別是無監督學習演算法混淆。但是兩者從根本上是不同的。深度學習的內容是預置的,目標的判定規則也是確定的。

而進化類演算法學習的環境和目標是開放的,不同的機器狗學到的走路方式可以是不一樣的。

這個進化的想法聽起似乎不錯,然而實現起來非常麻煩,人類智慧是地球上生物進化了35億年的產物。機器需要多久呢?

真正的難題都不是時間問題,是如何給機器提供進化的環境,放到真實的環境進化,它沒有感知能力,放到模擬的環境進化,目前沒有能力和資金來模擬一個完整的現實世界,也許元宇宙實現會有幫助吧,直接放到元宇宙裡進化可是,那也是和現實世界不一樣的環境。

另外一個邏輯缺陷是,這種開放式的進化,機器狗學壞了怎麼辦,比如好的沒學會,學會了罵人,打架、幹壞事………

為了出現這樣超出預期的情況,就需要為進化的過程或者目標預設規則,那這不又回到了現在的路線嗎?而且這種規則預置其實是植入開發人員自身的偏見……

所以呢,到最後還是僅僅是現有演算法的改進。還是隻能實現為某個特定的領域目標尋找出一個解決方案的任務。

無法實現強人工智慧的理想。

15

可能的實現途徑(三)——腦科學的進展和限制

雖然目前人類的知識對於如何實現強人工一點頭緒沒有。甚至從更基礎的哲學層面說,智慧到底是什麼,我們都沒有搞清楚。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

感覺是智慧嗎?原始生物也有感覺。有人臉識別能力是智慧嗎?某些動物和人類的互動也能看出它們有這個能力?語言能力是智慧嗎?有些鳥類能模仿人類說話。

有決策能力是智慧嗎?錯誤的決策又是怎麼回事?走路看手機猜到汙水坑甚至撞到樹是有智慧的表現嗎?

不過呢,不管世界是否理性,是不是所有問題可以用計算的方式解決。也不管智慧到底怎麼定義。現實的世界為我們提供了一個實現智慧的實際案例——人類的大腦。

人工智慧最後的方法可能依賴於腦科學和仿生學的進展。

現在的神經網路演算法就是受到了人類神經元系統的啟發。然而,到現在為止,人類其實並不知道神經元系統是如何工作的。

不但人類神經元系統具體如何工作沒有搞清楚。實際上,現在是連神經網路演算法具體是怎麼形成計算結果的人類都搞不清了。

以至於有些學者批評現在的人工智慧不過就是調引數撞大運式的黑箱計算。把給人類看病,法官這樣的判斷性工作全權委託給它們簡直是不負責任,它們只能是一個輔助決策工具。

16

物理規律的根本性限制——能耗和熵增原理

目前腦科學的進展了了解了人類大腦的一些機制和原理,知道了神經元網路之間資訊流訊號本質還是一些電和化學反應。知道了某些區域的可能的一些功能。然而依然無法回答,意識是什麼?感覺是什麼?

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

按照一些現代哲學家的觀點來說,意識是什麼的問題是哲學上的難問題。即使我們知道了大腦的運作機制,也無法回答意識是什麼的問題。

就好像我們知道了視覺的工作原理,知道顏色是電磁波訊號轉換後大腦為我們產生的欺騙信幻覺。可是我們還是不知道這個感受是什麼,紅色引發的所謂熱烈,熱情的感受到底是什麼樣的感受。

事情似乎又回到了原點,如果連意識,感受是什麼都搞不清楚,我們又如何實現真正意義上的人工智慧呢?

而且呢,就算知道了人腦的工作原理,我們也未必能使用機械方法完全實現生物方法的系統。

在根本上,人工智慧的實現還是可能會受到物理規則的限制。根據熱力學第二定律,要維持一個複雜機械系統的有序,需要不停的給系統提供巨大的能量。實際上呢,目前的超級計算機都是耗電大戶,能耗都是十幾兆瓦。而人類大腦功耗只有20瓦。沒有人類的持續高投入維護,一個機械系統,不要說發展出感覺和智慧,根本無法自我維持正常運作。

17

小結

目前的實現人工智慧本質上還是統計,歸納擬合數據的相關性。所謂計算機的影象識別,其實是兩張圖片對應的資料的相關程度,至於圖片上的貓到底是什麼,計算機毫無概念。ChatGPT的創作活動也一樣,它根本不知道自己創作的東西有什麼實際意義。

ChatGPT創造力非凡,能碾壓人類統治世界的人工智慧要來了嗎

目前實現的這些人工智慧本質上與人類的意識和智慧毫無關係。和很多科學術語一樣,某種程度上人工智慧術語被媒體和部分從業人員有意泛化,畢竟能超越人類智慧的機器更能吸引眼球和投資。那種有判斷力,有自我意識的機器系統的想法更像一種通話。

至於人工智慧引發的倫理問題,特別是類似無人機,機器人的軍事用途引發的問題,本質上其實是科技發展帶來的問題。包括基因技術,生化技術都會引發倫理問題。技術背後的倫理問題最後還是取決於掌握技術的人用它來做什麼。

談到意識是什麼,智慧到底是什麼的哲學問題。人工智慧的發展倒是可以反過來幫人類更好的理解大腦是如何工作的。神經網路演算法的發展也為大腦神經元的工作方式提供了一個模擬方法。這可能反過來對人類瞭解自身有幫助。

它也許會幫助我們回答幾千年來一直困擾我們的,關於人類自身的終極問題:

我們是如何認知世界的?

所以,人工智慧的發展不僅僅是個計算機科學的問題,它是涉及到腦科學、認知科學,甚至於哲學領域的多學科問題。

Tags:人工智慧人類計算機問題智慧