我認(rèn)為在一千年之內(nèi)人類它會(huì)由于機(jī)器的輔助而以一種過度的速度發(fā)展,但是如果人工智能技術(shù)進(jìn)化太快,它最終會(huì)智能 -1/。你要知道人類是從細(xì)胞慢慢進(jìn)化出來的,細(xì)胞也是地球孕育出來的。人工智能技術(shù)之一是模擬人腦的神經(jīng)元結(jié)構(gòu),這是非常危險(xiǎn)的,機(jī)器最終會(huì)進(jìn)化成真正的智慧。你要知道人類本身就有非常大的問題。自我意識(shí)形態(tài)在基因?qū)用鏇]有任何進(jìn)步,思維也沒有達(dá)到光速。思維根本無法和機(jī)器競爭。
7、你覺得未來的 機(jī)器人會(huì) 毀滅 人類嗎?事物的發(fā)展有兩重性,有好有壞。同時(shí)具有雙刃劍效應(yīng)。臺(tái)風(fēng)是一種自然災(zāi)害。臺(tái)風(fēng)來了,滿目瘡痍,損失慘重。但臺(tái)風(fēng)過后,調(diào)整了氣候,調(diào)整了旱情,使當(dāng)年的雨水分布得更均勻、更廣。同樣,科學(xué)技術(shù)的發(fā)展使人類受益,發(fā)展了生產(chǎn)力;同時(shí),它也是犯罪分子用來危害社會(huì)的武器人類就像銀行卡一樣,方便用戶,帶著卡出門也不需要帶太多現(xiàn)金,但稍有不慎就可能讓懂得解碼的高科技犯罪分子提取錢財(cái)。
所以當(dāng)智能 機(jī)器人出現(xiàn)的時(shí)候,就要立法,管理好。防患于未然。有可能,未來都是AI,人工智能,有自學(xué)能力,機(jī)器人可能不受人類控制。之前看過美國波士頓動(dòng)力的機(jī)器狗,挺牛逼的。如果我以后有獨(dú)立思考的能力,那就無敵了。未來的勞動(dòng)智能將加速資本所有權(quán)的變化,這是一個(gè)全局性的人類制度性的進(jìn)化變化,人類生死存亡,命懸一線。
8、人工 智能會(huì)不會(huì)造成 人類的 毀滅?巴菲特的擔(dān)憂在某種程度上是有道理的。人工智能(AI)的崛起確實(shí)帶來了巨大的機(jī)遇,但也伴隨著一定的風(fēng)險(xiǎn)。與原子彈不同,人造智能的風(fēng)險(xiǎn)不在于它本身,而在于它實(shí)現(xiàn)了什么。因?yàn)橹悄芩莆盏募夹g(shù)和知識(shí),都是來源于人類做出它的人的思維和行為,具有不確定性和風(fēng)險(xiǎn)性,有可能被惡意利用,對(duì)社會(huì)造成極大的危害。正如巴菲特提到的,人工智能技術(shù)對(duì)許多重要領(lǐng)域產(chǎn)生了重要影響,比如自動(dòng)駕駛汽車、機(jī)器翻譯和語音識(shí)別。
然而,這些技術(shù)也帶來了一些潛在的風(fēng)險(xiǎn),如人們的隱私被侵犯,就業(yè)崗位被取代等等。因此,我們需要認(rèn)真對(duì)待人工智能技術(shù)的興起,尋求有效的監(jiān)管和對(duì)策,確保其可持續(xù)發(fā)展,避免其產(chǎn)生嚴(yán)重的社會(huì)危害。最終目標(biāo)是基于人類的安全、健康和福祉,最大限度地利用人工智能技術(shù),最小化風(fēng)險(xiǎn)。
9、為什么說人工 智能會(huì) 毀滅 人類人類進(jìn)化手段人類機(jī)械化。當(dāng)人的大腦可以被復(fù)制時(shí),那么人的有限生命和不可修復(fù)的身體就沒有價(jià)值了。一個(gè)可以裝載人類大腦思維和記憶的機(jī)器將完全取代人類身體,身體可以隨時(shí)修復(fù)和替換,也就是人的生命(思想)變得永恒,這就是生物進(jìn)化的目的。從物質(zhì)到有機(jī)生物,思維產(chǎn)生,最終回歸物質(zhì),成為具有思維能力的物質(zhì)。有機(jī)生命的作用只是思維產(chǎn)生和進(jìn)化的一個(gè)載體。
10、人工 智能會(huì) 毀滅 人類嗎一個(gè)假設(shè)會(huì),因?yàn)楫?dāng)人工機(jī)器智能真的出現(xiàn)時(shí),智力進(jìn)化的程度是人類無法理解的。一臺(tái)幾萬智商的機(jī)器,人類是不可能看懂的,簡單來說,當(dāng)用nano 機(jī)器人做物品時(shí),只要碳分子nano 機(jī)器人自我復(fù)制130次,那么世界上所有的生物都會(huì)滅絕。還有一種假設(shè)是我們可以和平共處,因?yàn)橛钪嬷幸欢ㄓ懈哂谖覀兛萍嫉奈拿?,而且一定是人造的智能,地球存在了這么久毀滅說明是人造的智能-。