當前位置: UU看書 > 都市 > 穿越:2014最新章節列表 > 第305章 另一份新的答案
選擇背景顏色: 選擇字體: 選擇字體大小:

第305章 另一份新的答案

尹芙·卡莉對此卻是再清楚不過了。

首先,林灰在文字摘要方面的貢獻太大了。

而文字摘要本就是可以影響世界的。

這並不是誇張的說法。

涉及到文字摘要方面的研究其實有很長的歷史了。

東方對於文字摘要的研究是什麼狀況此前尹芙·卡莉不是很清楚。

但來到中國之後,尹芙·卡莉透過一些麻省理工學院同中國友好合作的機構才瞭解到。

廣泛意義上的文字摘要這方面中國雖然似乎沒啥專案。

但涉及到純粹的中文文本處理這個古老的東方國度不但有專門的專案。

甚至於有的還被863計劃這樣的國家級計劃所涵蓋。

863計劃,顧名思義自然是在86年3月開始執行的。

當時第一次聽說不少涉及到文字摘要的專案甚至於早在上世紀末期就開始了。

尹芙·卡莉是震撼的。

甚至細思之下,尹芙·卡莉覺得比較恐怖。

都已經是2014年了,居然還有一個近乎於三十年前開始的計劃在按部就班地向前推進。

做計劃不難,難的是計劃的執行力度。

就這份三十年前確定的計劃的執行力度可以說世界範圍內也是沒誰了。

總之尹芙·卡莉覺得這在頻繁兩擋交替的美國幾乎是難以想象的事情。

不過僅僅是文字摘要這方面。

尹芙·卡莉還不至於太悲觀。

畢竟西方在文字摘要這方面一樣是傾注了大量心血。

甚至於要遠比華國在這方面開始的研究還早。

尹芙·卡莉記得此前還在學生時代的時候就聽聞西方關於文字摘要這方面的研究在冷/戰初期就已經開始了。

最早進行這方面工作的是諸如斯坦福大學、麻省理工學院之類的這些學校。

不過當時這些學校背後的僱主是美國的五/角/大樓。

聽起來很奇怪,但並不奇怪。

事實如此,現在人類網際網路以及計算機方面各種各樣的技術最初都和軍方有著千絲萬縷的聯絡。

甚至於不少技術幾乎就是純粹的軍轉民。

涉及到文字摘要這個方向。

之所以當初當時進行文字摘要這方面的研究是旨在透過在文字摘要上實現技術突破從而能夠更加高效地透過一些諸如新聞、報道各種公開的資料進行信息處理,同時進行文字摘要方面的研究也是為了能更好的實現對敵對勢力的輿情分析。

至於是什麼敵對勢力,自然是昔年無比強大的北極熊。

說起來這也是早期文字摘要編碼的一個奇葩特徵。

對中文這門使用人數相當多的語言基本沒啥處理能力。

對俄文處理卻幾乎擁有和英文同等水平的高效性。

不管最初的目的是什麼。

總之,在相當長的一段時間裡涉及到文字摘要這方面的研究都相當受重視。

甚至在相當長的一段歷史時期該領域的部分研究經費甚至直接是來自M國軍費中的撥款。

後來隨著間諜衛星等更高效獲取情報的手段相繼問世,M軍方對這方面的研究的熱情才逐漸被澹漠。

儘管如此,商業上對文字摘要的熱情卻幾乎自始至終毫無動搖。

文字作為資訊的重要載體,再怎麼重視也不為過。

新世紀網際網路的告訴發展,大量資訊的湧現。

人們更是不得不重視。

對資訊的研究越深入,我們就越能瞭解到這個世界。

文字摘要的深度探索,讓我們對資訊的掌控更強。

就林灰在文字摘要上所作的貢獻而言。

說林灰改變了世界也不為過。

反正尹芙·卡莉不覺得這種說法有什麼不對的地方。

涉及到具體領域,林灰所作的貢獻在自然語言處理所做的貢獻實在是同樣很大。

相對於傳統的抽取式文字摘要,生成式文字摘要的意義空前。

之所以說生成式文字摘要的意義空前,並不僅僅是因為這項技術在處理文字摘要上效率上更高。

當然生成式文字摘要能夠擁有更高的處理文字的效率。

這個對於記者之類的相關使用人員來說效率的提高確實是很具有意義。

但這不是科研人員所關心的。

一個轉動的更快的輪子相比於一個同樣能轉但轉的較慢的輪子相比有價值。

【穩定運行多年的小說app,媲美老版追書神器,老書蟲都在用的換源App,huanyuanapp.org】

但深究之下會發現其實價值也不大。

事實上尹芙·卡莉覺得生成式文字摘要最不起眼的內容就是其在效率方面的提升。

甚至可以說效率只是生成式文字摘要這項演算法的外在表現而不是這一演算法的真正核心。

通常意義上所說的自然語言處理(NLP)主要內容無非就是兩部分。

一部分是NLU,另一部分是NLG。

前者指的是自然語言理解,後者指的是自然語言生成。

林灰搞定的生成式文字摘要演算法在自然語言理解和自然語言生成此二者上都有極為突出的意義。

生成式文字摘要這項全新的文字摘要演算法。

其相比於傳統的抽取式摘要只能藉助於原有的文字內容抽取而言,能直接“無中生有”的進行摘要生成。

這樣的一種演算法在自然語言理解方面自然是做到了前所未有的高度。

而且這也啟發著在自然語言生成方面有可能實現新的突破。

自然語言生成更是一項極為有價值的方向。

自然語言生成更長遠的未來可不僅僅是依靠文字生成文字。

理論上講,當神經網絡學習進展到一定地步的時候。

當輸入內容不是文字的時候,也可以據此進行自然語言生成。

誠然如此的話,那麼今後自然語言處理這方面會獲得真正意義上的騰飛。

屆時自然語言處理也會徹底擺脫現在一向圈地自萌的局面。

而神經網絡學習發展到什麼樣的地步才可能實現新的突破呢?

尹芙·卡莉對林灰在論文補充內容中提到的深度學習印象極為深刻。

所有人都知道神經網絡學習這方面為了使得模型更加高效就要更深。

可怎樣更深入呢?

這是個問題。

現在世界裡神經網絡學習雖然很多人都冠以深度學習之名。

但其實尹芙·卡莉覺得這些都是不夠“深”的。

其模型對應的效率什麼的都差得遠。

不知道林灰就深度學習這方面能夠給出另一份全新的答桉麼?