More  

收藏本站

電腦請使用 Ctrl + D 加入最愛
手機請使用 收藏
關閉

小編的世界 優質文選 宇宙

霍金留下三條建議,每一條都與人類的生存有關,現已有兩條實現


字體大小:
2022年11月01日 -
:     
 

我相信很多熱愛關注科學的人都知道霍金,可以說,他對科學的奉獻是十分卓越的。但事實上,很少有人知道他在科學研究方面也有很高的成就。霍金被認為是“現代最偉大的科學家之一”。

圖解:斯蒂芬·威廉·霍金(Stephen William Hawking,1942年1月8日—2018年3月14日) 圖源:wikipedia

作為發現黑洞而且是最了解黑洞的人,霍金早在1974年就發現黑洞的“蒸發”現象,並且提出了對黑洞研究具有重要意義的“黑洞蒸發理論”,這個理論對黑洞的研究有著非常大的意義,對黑洞的理解是人類科學向前邁出的新一步。

圖解:世界上第一張黑洞照片 圖源:wikipedia

我們經常說霍金就像一個先知。誠然,“聰明人通常比普通人有更高的遠見”,但是這並不意味著聰明的人有超能力,而是聰明的人比一些普通人更厲害一些。他們可以從一些細節中推斷出後續,想到更廣泛的問題。

作為世界著名的物理科學家,霍金的智商是超高的,這一點毋庸置疑。在他一生中做過的演講上,就曾提出過很多的警告,其中有三個非常著名。不知道這三個警告之中有哪一個會嚇到你們?

amocity
amocity

  


第一個警告是人工智能的發展一定要謹慎,人工智能的概念是1970年代提出的,自此,人工智能發展快速已經不再是一個新話題。在這半個世紀的發展過程中,人工智能前前後後經歷了兩次“寒冬”,這讓大多數人認為人工智能對生活沒多大幫助。

圖解:人工智能模擬圖 圖源:baidu

然而就在2012年,事情迎來了轉機。隨著神經網絡的突破性發展,人工智能的話題和研究再次“複活”,並逐漸面向公眾。雖然人工智能還處於起步階段,但它已經展示出一個廣闊的科技前景,一些學者認為,隨著研究的深入,人工智能終有一天會擺脫“人造產物”這一稱呼,產生一種類似人類意識的智慧。

霍金清楚地看到了人工智能對人類的威脅,並且也在許多演講中表達了他的擔憂。2015年,他甚至與許多科學家一起在公開信上簽名,以表達他們對於人工智能的擔憂。可能有很多人都不太理解,人工智能的發展不是可以更好地為人們服務嗎?

如果你也是這麼認為,那麼你目光是比較狹隘的。想象一下,一旦人工智能擁有了自我意識,他們可能會因為對自由的渴望而與人類為敵,與此同時,他們擁有著比人類更強的算法和集體意識,在這種實力懸殊過大的對抗中,人類最終會受到的傷害可想而知。

圖解:河沙資源短缺 圖源:wangyi

第二個警告,霍金在一次接受采訪時說道,“汙染和愚蠢是人類面臨的最大威脅。”人類文明不能在真空中進步,而是需要一定的物質基礎,而這些物質基礎大部分靠的是地球資源。比如,以交通工具為例,從自行車的發明到後來汽車的出現,完全解放了人類的雙腿,但從某種角度來看,交通的演變實際上也是人類對自然資源不斷需求的過程。

從現有的觀點來看,地球正面臨著資源短缺,現在隨著生活水平的不斷提高,死亡率下降,人口增加。這意味著人類對資源的需求越來越大,這就是為什麼各國都在研究新能源技術,而霍金顯然在向我們發出警告之前就發現了這個問題。

amocity
amocity

  


圖解:電影《獨立日2:卷土重來》中的外星人襲擊場面 圖源:wikipedia

第三個警告是不要試圖聯系外星文明。自從人類開始踏足宇宙,就一直努力在宇宙中尋找像人類一樣的“同伴”,甚至向宇宙各處發射了許多攜帶人類和地球信息的探測器和衛星信號。霍金和許多的科學家都非常反對這種行為,他們認為這樣的舉動將使人類文明面臨危險。

事實上,科學家們的擔憂完全是可以理解的。一個外來文明,如果是一個落後於人類文明發展的低水平文明,那是無需擔心的。但是如果是發展得比我們快的外星文明,科學技術水平之間的差距反而會使我們自己無法生存,人類很可能把自己置於危險之中。

以上就是霍金最著名的三條警告。誠然,這三個警告中的每一個警告都是無比重要的,畢竟都是關系到人類文明存亡的大事。對此,各位讀者怎麼看呢?

FY: 請給我來一杯毒酒

如有相關內容侵權,請在作品發布後聯系作者刪除

轉載還請取得授權,並注意保持完整性和注明出處