首先是人工智能的劣勢。試想一下,如果有一天人工智能真的具備了人類的思維能力,那就意味著這個(gè)地球上出現(xiàn)了一個(gè)新的物種。既然它有意識,還會受人控制嗎?答案自然是否定的。那時(shí)候,必然會有一場爭奪世界的戰(zhàn)爭。人類一旦處于弱勢,就有可能屈服于AI 機(jī)器人,最終像恐龍一樣直接消失在地球上。這真的非常可怕。但拋開這個(gè)層面,發(fā)展AI智能還是會帶來好處的。
7、馬斯克認(rèn)為人工智能比核武器還 危險(xiǎn),這是真的嗎?真的。因?yàn)槿斯ぶ悄芎苈斆?,將來可能會超過人類的智能,所以將來可能會比核武器危險(xiǎn)多。我覺得是真的,因?yàn)槿斯ぶ悄軙粩鄬W(xué)習(xí),學(xué)習(xí)能力不亞于人類,所以我覺得最后可能會比人類更強(qiáng)。有可能,畢竟人工智能和學(xué)習(xí)的能力是不可控的,不像核武器,不能通過自主學(xué)習(xí)來控制。馬斯克認(rèn)為人工智能比核武器更好危險(xiǎn),這是真的,因?yàn)槿斯ぶ悄苡凶约旱乃季S,它可以輕而易舉地毀滅人類。
特斯拉創(chuàng)始人馬斯克一直對人工智能的發(fā)展心存疑慮。他認(rèn)為人工智能其實(shí)比核武器更多危險(xiǎn)那么這可能是真的嗎?首先,我們來看人工智能的應(yīng)用。不管你承不承認(rèn),未來人類的很多工作都會逐漸被人工智能取代,尤其是進(jìn)入5G時(shí)代后,因?yàn)榫W(wǎng)絡(luò)的延遲已經(jīng)大大降低,人類幾乎無法用自己的感知來識別這種延遲,從而使得人工智能的應(yīng)用范圍更加廣泛。
8、 機(jī)器人會威脅人類嗎有可能。一旦人工智能達(dá)到一定程度。機(jī)器人在學(xué)習(xí)和成長方面優(yōu)于人類。當(dāng)它有了自己的思維或者智商,并且遠(yuǎn)遠(yuǎn)高于人類的時(shí)候,它很可能會威脅到人類的生存。不要!機(jī)器是人創(chuàng)造的,是為了方便那個(gè)時(shí)期的生產(chǎn)和研究而出現(xiàn)的。隨著時(shí)代的發(fā)展,機(jī)器在更新?lián)Q代是很自然的,但它們總是由人發(fā)明的,需要人類的想法來給它們存在的理由。
有思想的機(jī)器能代替人類?他們想的比人類高,但是怎么可能比人類高呢?他們需要人給他們設(shè)計(jì)創(chuàng)意,所以會有人控制他們。而且,世界的能量是逐漸消耗的。眾所周知,我們這一代基于晶體管的電子機(jī)械很快就要走到發(fā)展的瓶頸和盡頭,必須出現(xiàn)新的技術(shù)來取代晶體管。從目前的情況來看,我要講的光電子、超導(dǎo)、生物計(jì)算機(jī),無疑是使用生物芯片(具有生物工程技術(shù)的鏟子功能的蛋白質(zhì)分子)的非常先進(jìn)的材料,其運(yùn)算速度比目前的巨型計(jì)算機(jī)快10萬倍,因此有很大的發(fā)展前景。
9、人工智能,真的很 危險(xiǎn)嗎你在利用別人的時(shí)候,怎么知道別人不是在利用你?人類太自以為是了,以為人工智能是自己設(shè)計(jì)的,一定能控制。在不久的將來,人們會意識到,人類創(chuàng)造的東西并不意味著人類可以控制它。既然是人工智能,那么當(dāng)它有了一定的自主性后,就會像人類一樣有自己的思維,只會做自己覺得對的事情。機(jī)器人以后除了身體上,和人沒什么區(qū)別。
想想為什么微軟每年都會邀請外人來攻擊自己的系統(tǒng),你就明白了,你設(shè)計(jì)的東西,你是不可能完全掌握的。有幾十年經(jīng)驗(yàn)的程序廠商都明白這個(gè)道理,你還覺得人工智能安全嗎?人可能會一時(shí)做錯(cuò)一件事,但做完一件事就會停下來。一臺機(jī)器一旦出了問題,除非關(guān)機(jī),否則不被摧毀是永遠(yuǎn)不會停止的,想想這有多可怕。人類總有一天會被人工智能毀滅。