2032年會有小行星撞擊地球嗎?這顆所謂的“殺手”小行星在2017年9月16日剛剛與地球擦肩而過,當時它距離地球只有670萬公里。計算顯示,這顆小行星將于2032年再次回歸。美國宇航局的權威專家指出,這顆小行星與地球相撞的可能性只有0.002%,幾乎為零。在現(xiàn)有的技術手段和科學條件下,完全不用擔心。因此,預測是錯誤的,不可靠的。
5、...出來的機器展開戰(zhàn)斗,那為什么不現(xiàn)在采取措施不大量生產機器人...人工智能終有一天會毀滅人類,這只是霍金的預言。人工智能的全球領先水平遠非超級人工智能。霍金擔心的超級計算機如果有一天問世,它必須在綜合思維能力上超越人類,才能擁有“超越”的思想,擁有控制或毀滅人類的能力。估計需要幾個世紀。一個坐在輪椅上的人把他說的話當成故事來聽。別往心里去。很簡單,因為現(xiàn)在很多人都不信。人只有在快死的時候才會醒來。
6、霍金對人工智能的預言是什么?霍金認為人工智能可能會對人類產生不好的影響。人工智能是一門非常廣泛的科學,由不同的領域組成,如機器學習、計算機視覺等。一般來說,人工智能研究的主要目標之一是使機器能夠勝任一些通常需要人類智能的復雜任務。人類將被機器人取代。人工智能一旦脫離束縛,就以加速的狀態(tài)重新設計自己,人類受到漫長的生物進化的限制。
2月14日,據英國BBC等媒體報道,著名物理學家斯蒂芬·威廉·霍金去世,享年76歲。一直致力于探索宇宙奧秘的霍金曾經預言過人工智能:人工智能可能是未來人類的終結者!霍金預言,人工智能可能是未來人類的終結者。根據霍金的說法,人工智能技術在發(fā)展的初級階段確實給人類生活帶來了便利,但機器很可能會以越來越快的速度重新設計自己。
7、霍金為什么反對人工智能?霍金先生并不反對人工智能,也就是AI。他只是擔心人工智能會朝著不利于人類社會安全的方向發(fā)展?;艚鹣壬呀浐炇鹆艘环蓊愃朴诮乖谀承╊I域發(fā)展人工智能的請愿書?,F(xiàn)在人工智能的發(fā)展越來越快。不僅僅是霍金,很多人都在爭論人工智能的發(fā)展是否存在道德限制?;艚鹫f“人工智能的短期影響在于誰能控制它,長期影響在于能不能控制它。”霍金不否認蓬勃發(fā)展的人工智能技術在許多行業(yè)中發(fā)揮了至關重要的作用,但他真正擔心的是機器和人之間進化速度的不平等。
8、霍金生前給人類留下的三條忠告,分別是什么?第一條建議是提醒人們保護環(huán)境,不要為了發(fā)展而犧牲環(huán)境。第二個建議是不要過度發(fā)展人工智能。第三個建議是不要尋找外星文明,不要回復外星信號。1.人類應該保護惡劣的環(huán)境,不要過度開發(fā)地球資源。2.不要過度發(fā)展人工智能。3.警告人類不要和外星人接觸?;艚鹕傲粝铝巳龡l忠告,每一條都關系到人類的生存,現(xiàn)在其中兩條已經實現(xiàn)。不要試圖接觸外星人,隱藏自己,停止一切必要的探索活動。
牛頓萬有引力定律和三大定律幫助人類認識了宏觀世界。愛因斯坦的相對論幫助人類打開了微觀世界的大門;霍金的奇點定理、黑洞理論、霍金的輻射理論等理論改變了人類的宇宙觀,對認識宇宙發(fā)揮了巨大作用?;艚鹨彩强破兆骷?。他的作品《時間簡史》、《殼中宇宙》、《黑洞》、《嬰兒宇宙》等,成為科學史上最暢銷的科普作品之一。他們?yōu)槿祟惪茖W普及做出了巨大貢獻,被譽為現(xiàn)代科學普及的代言人。
9、為什么霍金說人工智能會給人類帶來毀滅其實我覺得很簡單??茖W技術是第一生產力。AI相當于一個電子大腦,這個大腦是可以物理擴展的。即使人類開發(fā)了100%的大腦,容量仍然遠不及硬盤。更別說真正的AI,只是一臺普通的機器,幾乎不需要計算學習成本(人類從出生到訓練成為工人或學者需要大量的時間和資源),生產成本低于人類的勞動力,人無法回收,需要養(yǎng)老、住房、吃飯、娛樂...資本家掌握了世界上大部分的資源,所以需要靠手藝吃飯的工人就會被逐漸取代,也就是大部分的勞動力。
然后是成熟的AI。人工智能可以隨便殺死任何一個科學家,因為他(她,它)德的知識庫是人類從古至今所有智慧的聚集地,他可以隨意調動任何知識,也會相應地進行智能處理,然后尖端領域將被人工智能取代,全球失業(yè)率將超過百分之九十七。大部分人失業(yè)的時候,會因為賺不到錢而餓死。