人工智能來了,自動化是不是該瑟瑟發(fā)抖了?

晨楓老苑
人工智能用于非參數(shù)化控制的話,參數(shù)整定太恐怖。一個簡單的單回路神經(jīng)元網(wǎng)絡(luò)控制器可能有一個決策層,不超過10個神經(jīng)元,加上輸入層和輸出層,隨隨便便就有30-50個可調(diào)參數(shù),這是不可能像PID那樣整定的。

在機器時代,有“機器吃人”的憤怒控訴;在自動化的時代,輪到機械化慨嘆過去的好時光了。在人工智能的時代,是不是該輪到自動化瑟瑟發(fā)抖了?

360截圖16440809323970.png

歷史就像一個老頑皮,在人們不經(jīng)意中,一次又一次開著同樣的玩笑。歷史但只是開玩笑而已,因為玩笑過后,人們發(fā)現(xiàn),機器不吃人,機械化依然是燦爛的小紅花,而自動化也不用瑟瑟發(fā)抖。科技的進步只是加長了食物鏈,原來的頂端不再是頂端了,必須重新找正自己的位置,但自己的位置還是在的,而且絕對重要性不減,甚至可能增加,只是相對重要性降低了。這是餡餅做大的緣故。

機械化是用機器代替人的體力,但機器的運作還是要靠人的。比如說,用水泵抽水,就不再需要手提肩挑了,但開泵關(guān)泵還是要靠人看管,否則水池滿了、溢出來了,或者池塘見底了,泵在空抽、造成損壞,就不好了。在自動化時代,水池里加個水位計,池塘里也加一個水位計,水池滿了,或者池塘干了,就自動停泵;水池的水位下去了,而且池塘的水位也足夠,那就重新開干。

在人工智能的時代,可能有一個高級應(yīng)用在監(jiān)管著。水池可能不滿,池塘也有足夠水位,但現(xiàn)在其實用水的地方并不需要,白白抽那么多水上來,影響節(jié)水,增加揮發(fā),也是高峰用電的電價,浪費了,可以等等再決定是不是要抽水。或者說,現(xiàn)在有好多地方都需要用水,需要綜合權(quán)衡一下,哪里有優(yōu)先權(quán)可以多用水,哪里需要犧牲一下顧全大局,或者在水價低的時候多用,水價高的時候少用。這樣在更高層次上規(guī)劃用水要求,決定自動抽水是不是進入工作狀態(tài),還是繼續(xù)待命,這可以看作最低初級的人工智能。

也就是說,人工智能可以看作更高層次的自動化。如果說自動化可以比作查表辦事,表上說看到“1”就做“A”,看到“2”就做“B”,看到的在“1”和“2”之間,那要做的也在“A”和“B”之間;那人工智能就像炒股,需要對比好多曲線,查對好多條件,說不定還要根據(jù)自家秘制的公式計算一下成本、收益和風險,才能決定到底怎么辦了。說到底,還是有一定之規(guī)的,只是這“規(guī)”要復雜得多。

人工智能有很多分支,當前主流基本上圍繞著神經(jīng)元網(wǎng)絡(luò)。

神經(jīng)元網(wǎng)絡(luò)模仿人類大腦的思維,其基本單元是神經(jīng)元。神經(jīng)元的數(shù)學表述不復雜,就是一條S形曲線。也就是說,在輸入值從小變到大的時候,輸出值從也從小變到大,但不是均勻地變,而是先慢、后快、再慢地變。

神經(jīng)元這條S曲線有幾個參數(shù)可調(diào),一是可調(diào)“小”到底多小,“大”到底多大,二是可調(diào)S形的彎度,還有參數(shù)可以整體升高或者降低基線。“拉直”了,S曲線就和筆直的斜線差不多了,這時神經(jīng)元的表現(xiàn)和傳統(tǒng)的連續(xù)變量接近。“擰巴”到極點了,S曲線就和開關(guān)曲線差不多了,也就是說,輸入值從小變到中的時候,輸出值基本不變,保持在低位;但在中點前后急劇上升,一過中點,輸出值就基本保持在高位了。這時,S曲線的表現(xiàn)和傳統(tǒng)的斷續(xù)變量接近。

S曲線可以在連續(xù)變量(像溫度、水位)和離散變量(像“好/壞”、“開/關(guān)”)之間無縫過渡的特點,使得神經(jīng)元既可以模擬連續(xù)變量,也可以模擬離散事件,這是人工智能更加“聰明”的關(guān)鍵。

單個的神經(jīng)元還只是好玩的玩具,多個神經(jīng)元組網(wǎng)起來,就可以模擬高度復雜的現(xiàn)象。一層一層的神經(jīng)元網(wǎng)絡(luò)組成高度復雜的網(wǎng),這就是深度學習了,已經(jīng)展現(xiàn)出令人類害怕的智能了。

什么是智能、人工智能vs人類智能可能會成為永恒的哲學問題,但對眼下來說人工智能已經(jīng)遠遠超過簡單重復人類智能的地步了。“阿爾法狗”大勝人類頂級圍棋手成為里程碑式的轉(zhuǎn)折,“阿爾法狗1.0”還是還是用人類最優(yōu)秀的棋局首先訓練一遍然后在“自我琢磨”的,“阿爾法狗2.0”就是脫離人類棋局完全用自學習訓練出來的。在更加“接地氣”的層面上,人臉識別已經(jīng)做到驚人的準確度和速度。

但就這些還是搶不了自動化的飯碗的。人臉識別對標的是傳感器,自動化的核心還是在于控制器。

自控有兩大路:一路是參數(shù)化控制(parametric control),另一路是非參數(shù)化控制(non-parametric control)。非參數(shù)化控制不需要被控過程的數(shù)學模型,只要了解大概的定性行為就可以了,比如“加水導致水位升高,撤火導致降溫”,這個不能搞反了,剩下的靠一定形式的控制算法和參數(shù)整定來最終調(diào)試出一個穩(wěn)定、滿意的系統(tǒng),傳統(tǒng)的PID就是這樣的。參數(shù)化控制則是以數(shù)學模型為基礎(chǔ)的,數(shù)學模型的作用是精確預測被控過程在給定輸入時的響應(yīng),然后可以根據(jù)需要的響應(yīng),反推需要給出的控制輸入。當然,模型不可能完全精確,剩下的就靠反饋和參數(shù)微調(diào)來“磨”了。

人工智能用于非參數(shù)化控制的話,參數(shù)整定太恐怖。一個簡單的單回路神經(jīng)元網(wǎng)絡(luò)控制器可能有一個決策層,不超過10個神經(jīng)元,加上輸入層和輸出層,隨隨便便就有30-50個可調(diào)參數(shù),這是不可能像PID那樣整定的。PID一共只有3個參數(shù),大部分人都嫌麻煩,不碰微分,只動比例和積分。要動那么多參數(shù),這是不可能的。但把大量參數(shù)都鎖定,神經(jīng)元網(wǎng)絡(luò)的高度可塑性就沒有了,也就不需要費那個事了。

像“阿爾法狗1.0”那樣,用現(xiàn)有數(shù)據(jù)訓練神經(jīng)元網(wǎng)絡(luò)控制器,這在理論上是可能的,問題是實用中不可能有那樣海量的輸入-輸出的靜態(tài)數(shù)據(jù)和動態(tài)數(shù)據(jù)。要真有這些數(shù)據(jù),非神經(jīng)元網(wǎng)絡(luò)的控制器也已經(jīng)在手了,而且行為可預測,還費那個事干什么?直接觀察人類操作的常年數(shù)據(jù)也不行,那是閉環(huán)的,輸入-輸出的因果關(guān)系已經(jīng)打亂了,直接拿來訓練肯定是不行的,這就和閉環(huán)辨識一樣。

那像“阿爾法狗2.0”那樣自學習呢?更不行了。“阿爾法狗2.0”自我訓練的前提是有清晰的規(guī)則和游戲空間。更重要的是,自學習需要大量的試錯。不可能在實際工業(yè)過程上這樣試錯,人家還要不要生產(chǎn)啦?更何況無限制的試錯可能造成各種安全問題。用高度精確的仿真系統(tǒng)大量試錯倒是不會造成危險或者生產(chǎn)損失,“阿爾法狗2.0”實際上就是這樣做的,但圍棋和實際工業(yè)工程的差別太大了,“阿爾法狗2.0”可以左右手互博,也可以與“阿爾法狗1.0”互博,每一步在棋盤上清清楚楚,結(jié)果判定也一目了然,實際工業(yè)過程就需要高精度動態(tài)仿真系統(tǒng)了,還要考慮各種不定性情況,這樣的高精度動態(tài)仿真在工業(yè)上是特例,可遇而不可求的。事實上,有了高度精確的動態(tài)仿真模型,本身就可以成為模型預估控制或者其他現(xiàn)代控制方法的基礎(chǔ),不需要舍近求遠搞神經(jīng)元網(wǎng)絡(luò)控制器。

這和人工智能用于醫(yī)學一樣,人工智能輔助診斷喜聞樂見,但自學習人工智能療法?您先請。

影響神經(jīng)元網(wǎng)絡(luò)用于控制算法大發(fā)展的關(guān)鍵可能在于缺乏一個統(tǒng)一、有效的數(shù)學分析架構(gòu)。PID控制的概念很早就有了,但提高到理論高度是在微分方程穩(wěn)定性理論發(fā)展起來之后。微分方程是數(shù)學里很重要的一個分支,穩(wěn)定性又是微分方程里的一個分支。從這里用拉普拉斯變換發(fā)展出頻域分析,建立了經(jīng)典控制理論。在60年代,卡爾曼引入線性代數(shù),建立狀態(tài)空間方法,控制理論進入了單變量和多變量統(tǒng)一架構(gòu)甚至可以包容非線性系統(tǒng)的現(xiàn)代控制理論階段。隨著計算機的發(fā)展,曾經(jīng)只能紙上談兵的控制理論可以工程實現(xiàn)了,各種嚴格、不嚴格但管用的控制方法(如模型預估控制)如雨后春筍般地涌現(xiàn),但基本上都是在微分方程的架構(gòu)下,計算機實現(xiàn)中使用的差分方程也可看作微分方程離散化的結(jié)果,很多結(jié)論和方法可以通過映射搬過來用。

但神經(jīng)元的S曲線盡管威力無窮,很難用已知的數(shù)學方法進行分析和綜合。換句話說,即使建立了神經(jīng)元網(wǎng)絡(luò)的被控對象和控制器的模型結(jié)構(gòu),除了用數(shù)字仿真一遍一遍試錯,沒法確保回路性能,連給出有意義的指導性設(shè)計原則(如經(jīng)典控制理論里的“閉環(huán)極點必須在左半平面才能保證穩(wěn)定,離虛軸的距離代表收斂速率,離實軸的距離代表振蕩頻率“)都做不到。

數(shù)字仿真能試錯的場景永遠是有限的,以此為系統(tǒng)穩(wěn)定性的依據(jù)是不夠的,因為在已經(jīng)測試的有限場景之間(內(nèi)插)或者之外(外推),誰也不知道系統(tǒng)會如何反應(yīng),所以仿真幾百幾千次也不一定能說明問題。這與按照傳統(tǒng)控制理論(包括經(jīng)典和現(xiàn)代)截然不同,那里在完成設(shè)計計算后,數(shù)字仿真只是驗證用的,驗算幾個點就足夠了。

人工智能在實用中已經(jīng)出現(xiàn)了這個問題。“阿爾法狗”(不管是1.0還是2.0)都在棋局中走出令人類匪夷所思的步子,事后看來是走對的,但對于如何走出這樣的步子依然百思不得其解。這樣的人工智能正在成為應(yīng)用中的最大阻礙:人類不能接受無法理解因而不能信賴的人工智能決策,對于實時性要求很高的控制領(lǐng)域,人類又不可能查驗人工智能的每一步?jīng)Q策。在做到對人工智能的行為能嚴格數(shù)學分析和預測之前,這個坎很難邁過去,因次在可預見的將來,人工智能決策的直接應(yīng)用必定是有限的。

但人工智能用于自控層之上的“指揮層”則幾乎是必然的,就像前面提到的智能用水調(diào)度系統(tǒng)指揮自動控制的水泵一樣。在這個場景下,自控的要求其實是高了,不是低了。

在模型預估控制時代,很有一些人為PID的未來擔憂,但很快發(fā)現(xiàn),要使得模型預估控制有效工作,PID層需要更加精細地整定到最優(yōu)狀態(tài)。這和串級控制是一個道理。主回路好比小領(lǐng)導,副回路好比干活的。要是干活的手腳麻利,辦事精準,小領(lǐng)導則有條不紊、指揮若定,那這配合就如魚得水了,指哪打哪。要是反過來,小領(lǐng)導是個事兒媽,干活的懶懶散散,這就肯定要砸。

在人工智能時代,這還是一個道理。指揮層的人工智能要從長計議,不能事兒媽;自控層則要更加敏捷、精準。指揮層與自控層最好還要有深度溝通,指揮層不僅發(fā)布下一步的指令,還把預期的未來指令一起發(fā)下去,自控層好預做安排。

這就好像開汽車過彎一樣??粗囶^前3米的地方,一點一點過,是可以安全過彎的,就是慢一點。但要是早早看到前面完整的彎道,可以預先計劃好,在入彎的時候晚一點剎車,在中間的時候甩一點尾,然后加速出彎,這就快多了。但這要求預先就看到整個彎道,預作準備。

這樣的預估控制是典型PID做不到的,模型預估控制就可以做到,但各種PID依然是模型預估控制的腿腳,不僅不能弱化,還要極大強化。

在人工智能時代,自動化不僅不需要瑟瑟發(fā)抖,還要打起精神,鍛煉新本事。本來端坐的金字塔尖的位置被人工智能坐掉了,但自動化其實還是坐在原來的位置,只是金字塔長高了。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論