『未來地圖』(1)-開源與全球腦

張凱喬
21 min readOct 23, 2020

--

Photo by AbsolutVision on Unsplash

for those clickbaited, 『未來地圖』是Tim O'Reilly於2018年出版的一本書,而『理解未來不可或缺的指南』是印在中文版上的一句推薦文。

Tim O’Reilly常被譽為時代推進者,矽谷最具影響力的人物之一,兩度引領網路發展方向,是Web 2.0、開放原始碼軟體、政府資訊公開、自造者運動等革命性思想背後的推手與先鋒。因對未來趨勢與商業模式的準確掌握,被媒體譽為「矽谷先知」。

作者在這本書中,主張人們該抛棄過去的舊地圖,用『未來地圖』對工作、商業、經濟全新樣貌提供正確的理解與該有的行動。他指出,現在的新科技如AI、雲端平台、區塊鏈等等,正在重新形塑我們的世界。

而這本書原版的介紹,就大辣辣地寫了WTF? technologies,

In this combination of memoir, business strategy guide, and call to action, Tim O’Reilly, Silicon Valley’s leading intellectual and the founder of O’Reilly Media, explores the upside and the potential downsides of today’s WTF? technologies.

相關的書摘也在此附上,可以大概先理解這本書的重點

此書針對現今網路科技基礎的發展歷程做了些背景說明,再接著往現在的共共享與平台思維談網路科技發展趨勢,並針對法規、政策、體制的不同觀點去思考和辯證,剖析眾多的科技產業以觀察與想像未來。

而這一篇文章,我會整理我在此書中觀察到網路科技趨勢發展重點,希望做一點紀錄。內容會包含Tim O’Reilly所記述的科技變化、怎麼去理解推演、以三個重點來統整我認為這本書裡面最重要的概念,分別為開源碼、全球腦與數位腦。

第一:開源碼

開源指的是『軟體原始碼允許公眾使用、複製、修改』,開源軟體讓原始碼對所有人開放,需要的人都可以查看、複製、學習、修改或分享代碼。

如果沒有開源軟體

現在不會有這麼多、這麼方便的網路應用,包含你現在看的網站、你現在上網搜尋資訊、你連上某個伺服器讀取網站資訊的過程,都是因為有傳輸控制協議(TCP)和網際網路協議(IP)、因為有BIND(Berkeley Internet Name Domain,使用最廣的DNS軟體)、因為有UNIX(Linux的基礎,同時促使GNU宣言發展的原因)、因為有HTTP(超文件傳輸協定,來自於Tim Berners-Lee、全球資訊網之父)、因為有Apache(依然是Tim Berners-Lee)

網路發展過程中的開源資源,無形中成為了網路蓬勃發展的重要推手,沒有一個人決定Apache的樣貌,而是來自社群、由核心的社群開放了最初的原始碼、再由某個社群或開源貢獻者所提交的pull request、透過測試與共編機制、最終被併入主線、當這個功能有問題或能有更好的修正辦法、再由下一個次pull request來處理,如此源源不絕、更迭不止,使原始碼一直在進化。

如果你對每一段故事有興趣,可以根據關鍵字去查詢這些網路發展的歷史,當然,你也可以從『未來地圖』這本書中窺探一二,因為O’Reilly是這網路發展中重要的觀察家與推手之一。

有智財權的軟體通常不會讓人接觸到它的原始碼,但是開放原始碼的軟體,完全開放讓他人去修改、使用程式碼,只要使用的人同意其在程式碼上所作的修改,能用同樣的條件去開放他人修改和使用。這件事讓世界上所有人都能參與該程式碼的創作,讓軟體能夠達到非常大的市場規模,Android的成功便是一例(雖然大家都說Android後來發展歪了)。

最初是1985年麻省理工學院的Stallman發表了『GNU宣言』,目標是打造一款完全自由的Unix作業系統,後來遭到AT&T的阻撓,但最後則輾轉變成了另外一套Linux作業系統,而GNU的宣言也延伸成為了一份正式的協議,稱為GNU General Public License,後來被簡稱為GPL授權

這個有幾個概念,簡單來說,我們現在都大概可以理解著作權、Copyright的概念,就是某個作品有著作權,我們就不能任意地使用,因為會違反作者的權益。而Copyleft就是單指「right」的鏡像,Copyleft代表你不得擁有任何著作的權益,你可以用、你可以改、但你也要把你用的方法跟改的東西完全公開來,不能把你改的東西包裝起來作為商業利益使用。

我覺得Wiki有一段寫得很好,『GPL提供的Copyleft對於基於Linux的系統的成功至關重要,給予向核心貢獻的程式員保證他們的工作將有益於整個世界並保持自由,而不至於被不提供回饋給社群的無良軟體公司所剝削。』

但回到現實,Copyleft是很理想的東西,但對於多數使用者而言可能會有點困擾,讓很多公司、創業家對於無法使用這類的產品做reinvestion、開創新市場、創造新的機會。就另外一個角度而言,商業價值低的Copyleft沒辦法進入商業市場,反而錯失很多使用者、很多更創新的激盪。

所以工程師們也陸續發展了一系列不同的授權形式。LGPL、BSD License、MIT及Apache 2.0,都鼓勵原始碼分享、允許代碼修改、衍生再發佈(開源或商業軟體皆可),只需注重原始作者著作權的授權聲明。

source: https://moqod.com/understanding-open-source-and-free-software-licensing/

開源軟體很巧妙的闡釋了Adam M. Brandenburger的經典著作『競合策略』,競合策略主要是在講企業經營的賽局,五種企業經營的重要角色包含:顧客、競爭者、互補者、供應商以及公司,而每個角色都可能會在『某種情況』下變換影響的身份與程度。

舉例來說:對低成本航空而言,公車業者暨是互補者也是競爭者。低成本航空會直接與長途客運業者競爭,但他同時需要客運將人流從機場載至市中心。另一方面,同屬航空業的競爭者,也很可能成為互補者,低成本航空很可能會和使用同類機型的同業與波音、空巴聯合議價以降低購置成本。因此在不同的情境下,每個角色都有可能發生變化。

對於開源軟體的命題而言,有些公司是專門發展開源軟體以獲取商業利益的,對於這類的公司而言,使用軟體的可能是顧客(付費使用)、是互補者(貢獻代碼)、是潛在競爭者(可能使用後產生更好的應用)…等等。

以Red Hat為例,Red Hat主攻伺服器的Pass/Iass層資源管理,包含傳統企業伺服器應用 (JBOSS中介軟體)、協助企業建立私有雲與混合雲 (OpenStack 產品)、透過與雲端供應商合作進入公有雲市場 (OpenShift 產品)等。

https://www.redhat.com/zh-tw/about/company

Red Hat上的開源技術都是完全免費的,也就是說你可以隨意下載Red Hat的程式碼、使用、自行修改等等。而對於需要獲得穩定技術支援的企業客戶而言,你就必須訂閱產品和服務,支付年度訂閱費用。

簡單而言,Red Hat的商業模式概括包含:

  1. 參與開源技術貢獻
  2. 提取/整理/管理開源社區的技術
  3. 檢驗、測試、打包這些產品組合
  4. 附加廣泛且豐富的客戶支援資源及合作夥伴服務
  5. 向企業和政府銷售企業級的技術服務

這便是妥善運用開源本質的商業範例,其他也不乏有很多有名的公司是透過同樣開源的方式來獲取商業價值,且是透過不同的方式來達成。譬如開發需要付費的插件、託管服務…等等,可以參考下圖。

O’Reilly驚豔的指出了這些開源軟體,是如何在商業環境中生存下來,且綻放成一朵朵美麗的花朵,使大眾可以觀賞、使用、再種植。從Web 1.0到 2.0、從GNU到MIT、從Linux到Android,再再都突顯了一個事實『網路時代的核心原則:更多自由,帶來更大發展』

一個有效運作的複雜系統,必然是從一個有效且簡單的系統演化而來。可以反思Elon Musk所提倡的第一原則,簡單、去中心化的系統能孕育新的可能,認同你的社群會免費幫你打造你需要的一切,甚至遠遠超過想像

第二,全球腦

在O’Reilly的紀事中,Web 1.0 的重點包含了Netscape,Yahoo和Google的發展,Netscape研發出第一個大規模商用的瀏覽器,Yahoo的楊致遠提出了互聯網網頁,而Google在最後居上,推出了大受歡迎的搜索服務。

當時人們知道了什麼叫『網際網路』,可以從特定的伺服器、遠端連線以取得資訊,大幅提升了單向的資訊傳遞效率,該時期的發展主要是商業公司為主體把內容往網上搬,使這些互動由B2C為基礎、產生商業價值。

後由O’Reilly在 『Web2.0: Principles and Best Practices』一書提出Web 2.0的定義:Web 2.0 是由一系列經濟、社會、 技術趨勢所共同形成的次世代網路的基礎,是一個更成熟且特殊的媒介,其特徵為使用者參與、開放以及網絡效應。

大家肯定Google是展開Web 2.0的旗手,Google透過網路的力量來充分運用集體智慧,達成更好的搜索服務。此外,最重要的,這是第一次任何人都可以在網上發佈內容,包含blogs、社群、商品等等,這時候,人們在網路上搜索的,並非商業公司提供的內容,而是集體智慧(每一個網路使用者)所產生的內容,即是C2C and B2C2C。

過程也受益於開源軟體,有更多的使用者用這些開源程式語言來架設網站、讓使用者可以產生自己的內容,可能是小說作品、可能是賣手工藝、可能是公司介紹、或是交友空間、市政府拿來宣傳當地活動與市民資訊。因為架網站的成本低廉,所以人們願意持續地在網路上創造與更新更多的資訊。

在未來地圖的這本書中,O’Reilly不只一次提出了『向量』這個概念,向量有兩個維度:方向、數值,譬如說摩爾定律,積體電路上可容納的電晶體數目,約每隔兩年便會增加一倍。摩爾定律是向量的一個很簡單而且很有力的範例,這件事情描述了晶片產業發展的路線與目標。

而網路產業發展的路線就如前面所談的,都是資訊外溢所產生的集體智慧,創造下一波的浪潮,譬如說開源碼是開發者社群的集體智慧、Web 1.0是入口網站(譬如說Yahoo、AOL、Excite等)及資訊服務商(企業)的集體智慧、Web 2.0是個人(blog、SNS、拍賣等)的集體智慧。

依據這個路線,在2009年的時候,O’Reilly就很直觀地指出下一個Web 3.0的階段,集體智慧不再靠人類的主動提供資訊,而是靠大量地感測器,譬如說攝影機、手機、穿戴裝置、智慧家電、甚至是車子、紅綠燈等。

另外,這件事情背後隱喻的情境代表,網路與真實世界的互相連結確實發生了,未來我們會越來越感受不到實體裝置與網路世界的區隔,你的實體裝置所感測到的事情就會連結到網路上。這代表感測裝置、行動網路、應用軟體、大數據演算法、人工智慧與機器學習、雲端運算、邊際運算等等,達成整體自動化網路連結與整合的力量。

我想O’Reilly在2009年提出的Web 3.0概念,大家在身處2020年的現在,想必沒有什麼疑慮或反抗,而更多的是擔憂,越來越多的資訊量連結到網路上,造成的影響並不健康,更何況未來會有更多的非人為輸入的數據被連結到網路上去,人們應該如何在網路上過載的資訊量下找到有效的處理方法?

在『TOO BIG TO KNOW:網路思想先驅溫柏格重新定義知識的意義與力量』這本書中有提到,網路世代的資訊過載是過去的無數倍,它讓知識制度有了新的樣貌:「寬廣、無界限、平民主義、接受異類、沒有定論」。

且在新的知識制度下,廣度本身就足以成為一種深度、專家和非專家的界限正在消失、平民主義興起、擁有「異類」資格的人取代高學歷者、沒有共識也能產生新知。

但書裡面說:『這不是資訊過載,是過濾失敗

新的知識策略是,擁抱歧異而非想辦消除歧異,靠自己組織知識的全貌(包含不同的觀點),而不是靠別人。這意味著未來的新人類要能具備過濾資訊的能力與素養,包含:資訊敏銳度 、主動連結更多資訊、批判性思考能力、資訊組織能力。

但我認為大家也不用過度解讀這件事情,畢竟聰明人都會找到自己的適合生存之道,譬如說關掉不必要的通知、刪去過於偏頗角度的媒體、找到適合自己閱讀的管道與來源(有效的leverage廣泛的管道例如自媒體、知識網紅、電子報、Podcast、討論社群等),而未來也會有更多類似人工智慧的篩選服務來處理更多過載的資訊,就像Siri一樣,現在Siri會嘗試在你需要的時候,自動的提示你一些應用程式的選項,譬如說早上出門之前會有一個”查看天氣”的自動推薦(因為Siri在學習你早上都會打開這個APP)。

O’Reilly在書中表示『數十億連線的人類和設備交織成全球腦,這個大腦代表我們所有人,是經過強化、互相連接的我們』

資訊的傳播,從人類還沒有文字就開始,接著人們有了印刷技術,思想與新聞得以傳播至遠方,從步行速度、馬車、輪船和鐵路,最後有了電報、電話、再來是網路,再再都提升了資訊傳播的內容深度、廣度、速度及準確。

George Dyson透過自然界的演化來解釋電腦程式碼的運作,他說我們現在所看著電腦的進步,那就是跟自然界在發生的事情一樣,從很小的片段程式碼(DNA)、後來組成了一個程式(蛋白質)、再來組成了多個程式協作、跨機器/跨語言/跨協定的交流,他也解釋說他並非說電腦程式碼有生命,而是指說這些都像是自然界的運行原理般運行著。

而現在,你所看到的字元與圖片,都是從幾十億位元的byte開始,從某台伺服器的硬碟開始努力游動,組合成有效的資訊,並開始經歷一連串不同協定的解碼、不同網路架構的資訊交換、最後來到了你的系統、瀏覽器、最後到螢幕上,完成了他的旅程。以上,都發生在沒有人為干涉的幾秒鐘以內。

未來,我們可以期待這樣的全球腦一直在演化,增加現在沒有收納在這個網絡內的資訊、持續改善蒐集分析與自動化處理的效率、並且為使用者能聰明的產生有用的價值。而我們可以觀察怎樣的公司正在這條路上努力著,通常而言,總會有那幾間特別的公司,代表技術的下一個浪潮,來幫助你在尋找的那張『未來地圖』。

資訊的大量增加,加上大量的非人為資料,形成全球腦。在第八章『演算法也需要經理人』,O’Reilly說道,資料科學家是21世紀最性感的職業,因為機器學習正在改變我們的工作方式,可以發揮電腦的優點,以極快的速度反覆的計算、歸納、演算那些數據中的特徵、邏輯,甚至包含了圖像、影片、聲音等。

關於現在的人工智慧是怎麼樣認識與解讀不同的資訊,可以看看

我在今年的未來商務展聽 ARM 台灣區總裁曾志光的演講,他說未來的晶片(也是ARM的目標),就是透過AI的方式強化處理各種大大小小裝置的感測資訊,減少人為的管理,讓眾多的裝置可以自動、聰穎的交換資訊,並且在最後只把你需要的、或是重要的訊息顯示在你面前。

而在『刷新未來:重新想像AI+HI智能革命下的商業與變革』這本書中,AI就是Artificial Intelligenc、HI則是Human Interaction,其中很重要的揭示是,人工智慧是用來輔助人類、而不是取代人類,讓人們的未來更有生產力,也更輕鬆的和機器產生互動。二,未來在某種程度上會讓機器自動化的做許多事情,需以人類的自主權和尊嚴為優先,並且保存文化,追求多元。

當然,現在我們正在處於與演算法的初識階段,我們感到困惑,究竟演算法可以做些什麼?我們感到害怕,看到Facebook的演算法可能抵擋不了假新聞、遭受異議份子的入侵、不知道可以相信什麼?我們感到期待,看到語音模型、對話機器人、半自動駕駛為我們所做的事情,這些都還需要人們慢慢的思考與理解。

這這一篇的結尾,就來看看Forbes在兩週前的一篇報導。

無監督的AI、聯盟式學習、新一代的NLP訓練模型 GTP 3

我們都一直看到各間公司、研究單位都在努力驅動AI的能力,面對工程師的是極快速成長、複雜程度超乎想像的大量數據。所以讓機器能自動地去開始針對沒有人為標籤的資料去找到需要的資訊,相當的關鍵。

此外,還有隱私、人權、資料的偏差…等等議題,當然包含現在的疫情,影響了我們對於這個社會與科技的期待與重視。滿有趣的~

這篇就到這邊,ㄅㄅ

Reference

https://isux.tencent.com/articles/ux-design-trend.html

--

--