-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
人工智能有多恐怖(人工智能的恐怖事件)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于人工智能有多恐怖的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、令人忌憚的人工智能,藏著哪些不可測的風(fēng)險?
當(dāng)人們看到像人類一樣反應(yīng)的機(jī)器,或者像人類一樣執(zhí)行戰(zhàn)略和認(rèn)知壯舉的計算機(jī),模仿人類的聰明才智時,他們有時會開玩笑說,未來人類將需要接受機(jī)器人霸主。但這個玩笑背后隱藏著不安的種子。從1968年的《2001:太空漫游》(2001:A Space Odyssey)到2015年的《復(fù)仇者聯(lián)盟:奧創(chuàng)紀(jì)元》(Avengers: Age of Ultron),科幻小說寫作和流行電影都對人工智能(AI)進(jìn)行了推測,人工智能超越了創(chuàng)造者的期望,擺脫了他們的控制,最終戰(zhàn)勝并奴役了人類,或?qū)⑷祟愖鳛闇缃^的目標(biāo)。在6月5日回歸的AMC科幻劇《人類》中,人類和人工智能之間的沖突是主角和主角。
在Synths發(fā)現(xiàn)自己不僅在為基本權(quán)利而戰(zhàn),也在為生存而戰(zhàn),與那些認(rèn)為他們不如人類、是危險威脅的人作斗爭。即使在現(xiàn)實(shí)世界中,也不是每個人都準(zhǔn)備好張開雙臂歡迎人工智能。近年來,隨著計算機(jī)科學(xué)家不斷突破人工智能的極限,科技領(lǐng)域的領(lǐng)軍人物警告人工智能可能對人類構(gòu)成的潛在危險,甚至暗示人工智能的能力可能會毀滅人類。但為什么人們對人工智能的概念如此不安呢?
在Synths發(fā)現(xiàn)自己不僅在為基本權(quán)利而戰(zhàn),也在為生存而戰(zhàn),與那些認(rèn)為他們不如人類、是危險威脅的人作斗爭。即使在現(xiàn)實(shí)世界中,也不是每個人都準(zhǔn)備好張開雙臂歡迎人工智能。近年來,隨著計算機(jī)科學(xué)家不斷突破人工智能的極限,科技領(lǐng)域的領(lǐng)軍人物警告人工智能可能對人類構(gòu)成的潛在危險,甚至暗示人工智能的能力可能會毀滅人類。但為什么人們對人工智能的概念如此不安呢?
一個“威脅”
埃隆馬斯克(Elon Musk)是引起人們對人工智能警覺的知名人士之一。2017年7月馬斯克在全國州長協(xié)會(National Governors Association)的一次會議上對與會者說:我接觸到了非常前沿的人工智能,我認(rèn)為人們應(yīng)該真正關(guān)注它。一直在敲響警鐘,但在人們看到機(jī)器人在街上殺人之前,他們不知道該如何反應(yīng),因?yàn)樗雌饋硖侦`了。早在2014年,馬斯克就把人工智能貼上了“我們最大的生存威脅”的標(biāo)簽,并在2017年8月宣布,人類面臨的人工智能風(fēng)險更大。3月14日去世的物理學(xué)家斯蒂芬·霍金(Stephen Hawking)也表達(dá)了對惡意人工智能的擔(dān)憂。他在2014年告訴BBC,全人工智能的發(fā)展可能意味著人類的終結(jié)。
同樣令人不安的是,一些程序員——尤其是麻省劍橋麻省理工學(xué)院媒體實(shí)驗(yàn)室(MIT Media Lab)的程序員——似乎下定決心要證明人工智能是可怕的。麻省理工學(xué)院(MIT)計算機(jī)科學(xué)家在2016年推出了一種名為“夢魘機(jī)器”(Nightmare Machine)的神經(jīng)網(wǎng)絡(luò),它將普通的照片變成了令人毛骨悚然、不安的地獄風(fēng)景。麻省理工學(xué)院(MIT)的一個名為“雪萊”(Shelley)的人工智能組合,在論壇上發(fā)布了14萬篇關(guān)于Reddit用戶在論壇上發(fā)布的恐怖故事。感興趣的是人工智能如何誘發(fā)情感——在這個特殊的案例中是恐懼。
恐懼和憎恨
消極情緒對AI通??梢苑譃閮深悾赫J(rèn)為人工智能將成為有意識和尋求摧毀我們,認(rèn)為不道德的人將使用人工智能用于邪惡的目的。人們害怕的一件事是,如果超智能的人工智能——比我們更聰明——變得有意識,它會把我們當(dāng)作低等生物,就像我們對待猴子一樣,那當(dāng)然是不可取的。然而,對于人工智能將發(fā)展意識并推翻人類的擔(dān)憂是基于對人工智能的誤解,溫伯格指出。人工智能在由決定其行為的算法定義的非常特定的限制下運(yùn)行。一些類型的問題很好地映射到人工智能的技能集合,使得人工智能的某些任務(wù)相對容易完成。但大多數(shù)事情都與此不相符,也不適用。
這意味著,雖然人工智能可能能夠在精心劃定的邊界內(nèi)完成令人印象深刻的壯舉——比如玩大師級別的象棋游戲或快速識別圖像中的物體——但這正是它的能力的終點(diǎn)。人工智能達(dá)到意識——在這一領(lǐng)域的研究絕對沒有進(jìn)展,我不認(rèn)為這是我們在不久的將來。另一個令人擔(dān)憂的想法是,不幸的是,一個肆無忌憚的人會利用人工智能來產(chǎn)生有害的原因,這是很有可能的,溫伯格補(bǔ)充道。幾乎任何類型的機(jī)器或工具都可以根據(jù)用戶的意圖而使用,無論其用途是好是壞,而使用人工智能武器的前景肯定令人恐懼,并將受益于嚴(yán)格的政府監(jiān)管。
或許,如果人們能拋開對敵意人工智能的恐懼,他們會更愿意承認(rèn)它的好處。例如,增強(qiáng)的圖像識別算法可以幫助皮膚科醫(yī)生識別出有潛在癌變的痣,而自動駕駛汽車有一天可以減少車禍死亡人數(shù),其中許多是人為失誤造成的。但在自我感知的人工智能的“人類”世界中,對有意識人工智能的恐懼引發(fā)了人工智能與人之間的暴力沖突,人類與人工智能之間的斗爭可能會繼續(xù)展開,并升級——至少在目前這個季節(jié)是如此。
二、人工智能最讓你害怕的一點(diǎn)是什么?
人工智能最讓人可怕的是人工智能人工控制不住。比如當(dāng)今的交通工具失控,航天器失控,武器失控……將來還會有更高級人工智能失控。人類在失控中走到盡頭。這是不可避免的。個人感覺!
三、人工智能的潛在危險,可能性有哪些?
人工智能給人類帶來的弊端:
1、人才分化,貧富差距弊端
人工智能帶來的人才分化極端。將會引起未來的人才爭奪戰(zhàn)。而社會上更多一流的人才將會偏向一邊,相對資金比較薄弱的企業(yè)或者個人,將會遭受到大規(guī)模的失業(yè)。在這種情況下會導(dǎo)致企業(yè)巨頭的壟斷,以及貧富差距的分化將會非常嚴(yán)重。
2、帶來更加頻繁的戰(zhàn)爭
人工智能機(jī)器人的產(chǎn)生,還有一個最可怕的弊端,當(dāng)人工智能被大量用武器中,未來的戰(zhàn)爭將不會大量使用到人類,而當(dāng)戰(zhàn)爭不再使用到真人,從道德的角度去考慮,人工智能的戰(zhàn)爭不會受到太多的批評,隨之而帶來的,將會是更多的機(jī)器兵團(tuán)戰(zhàn)爭。
3、帶來潛在的危險性
早在2015年,德國大眾的一家汽車制造工廠,一個機(jī)器人誤殺一名外包公認(rèn)。而作為人工智能發(fā)展大國——日本,至今為止,已經(jīng)有20人死于機(jī)器人誤殺事件,而有高達(dá)8000的人數(shù)被機(jī)器人致殘,而如果一旦人工智能機(jī)器人落到恐怖分子的手里,那后果將會更加不堪設(shè)想。
在我們生活中,幾乎所有的東西都有利弊,人工智能也一樣是一把雙刃劍,對待人工智能未來的發(fā)展,我們不僅要以樂觀的態(tài)度面對,而且我們還要對這個時代有信心,對人工智能相關(guān)研發(fā)人員有信心,因?yàn)樗自捳f得好,邪不壓正!
四、馬斯克認(rèn)為人工智能比核武器還危險,這是真的嗎?
特斯拉創(chuàng)始人馬斯克一直對人工智能的發(fā)展產(chǎn)生疑慮,他認(rèn)為人工智能實(shí)際上比核武器更加危險,那么這可能是真的嗎?
首先我們來看看人工智能的應(yīng)用。不管你承認(rèn)與否,今后人類的很多工作已經(jīng)慢慢將被人工智能所取代,尤其是進(jìn)入5G時代之后,由于網(wǎng)絡(luò)的延時性得到了大量的縮減,人類已經(jīng)幾乎無法用自己的感知來識別到這種延遲,從而使得人工智能的適用范圍更加廣泛。如今無人駕駛、無人送貨送餐、掃地機(jī)器人、看護(hù)機(jī)器人等等人工智能產(chǎn)品已經(jīng)廣泛被應(yīng)用到實(shí)際領(lǐng)域中。
試想一下你以后的生活,如果你早上起床的時候有個甜美的聲音喊你起床,同時開啟你喜歡聽的音樂催促你起來;在你起床的同時你的智能家庭廚房電器開始為你做香噴噴的可口早餐;在你吃早餐的時候自動為你播報你關(guān)心的新聞,同時為你的愛車加熱或者制冷;你吃完飯后智能機(jī)器人為你洗碗,打掃衛(wèi)生;你出門上班時無人駕駛汽車自動規(guī)劃行動路線將你快速送到公司或者需要辦事的地方;上班時智能機(jī)器人為你準(zhǔn)備好當(dāng)日需要處理的事務(wù);下班時無人駕駛汽車將你快速安全送回家中,同時通知家里的智能機(jī)器人為你準(zhǔn)備好當(dāng)日晚餐……
可以說以后人工智能將完全融入到我們的生活中去。華為創(chuàng)始人任正非就非常看好人工智能的未來,他說5G只是小兒科,人工智能才是大市場。
既然人工智能可以代替人類從事以前很多簡單、繁瑣、重復(fù)、威脅的很多工作,讓人們的生活變得簡單美好,那么這不正是好事嗎?為什么馬還是斯克會認(rèn)為人工智能會比核武器還要危險呢?
我們都知道馬斯克是科技狂人,他對于未來科技的狂熱是其他人不可想象的。而對于人工智能這個人類科技未來最大的發(fā)展方向他如何會有如此的擔(dān)憂呢?其主要原因如下:
首先,人工智能必須為人類服務(wù),如果偏離了這個方向,那么確實(shí)就如同馬斯克所說的那樣危險程度遠(yuǎn)遠(yuǎn)大于核武器了。因?yàn)楝F(xiàn)在的核武器的發(fā)射都掌握在這些國家的核心人物手中,需要經(jīng)過多人授權(quán)才可以進(jìn)行發(fā)射,也就是說是可控的。而人工智能則不一樣,這是一把雙刃劍,使用得好就上服務(wù)人類,使用得不好就是危害人類。打個比方:無人駕駛。正常情況下就是解決人們的智能出行問題,無人駕駛將自動根據(jù)大數(shù)據(jù)和行程選擇最佳的行車路線。但是如果其中有部分無人駕駛車輛失去控制的話,這就是無數(shù)個定時炸彈,將在路上橫沖直撞。如果被恐怖分子利用的話,就是移動的炸彈。如今已經(jīng)有恐怖分子使用無人機(jī)搭載炸彈進(jìn)行恐怖襲擊。這種情況相對來說難于控制的。
其次,由于現(xiàn)在已經(jīng)有阿爾法等機(jī)器人在圍棋等領(lǐng)域擊敗了人類,說明智能機(jī)器人的算力遠(yuǎn)比人類厲害。那么以后的智能機(jī)器人會不會產(chǎn)生自己的思維,從而想控制和摧毀人類呢?我們的很多科幻小說中已經(jīng)多次出現(xiàn)了這樣的情況:機(jī)器人全面反攻人類,意圖控制和消滅人類。
正是因?yàn)樯鲜鰞蓚€原因,馬斯克才認(rèn)為人工智能一定要控制得當(dāng),不能失控,否則其危害程度將遠(yuǎn)遠(yuǎn)大于核武器。
以上就是關(guān)于人工智能有多恐怖相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
境外騰訊客服電話人工服務(wù)(境外騰訊客服電話人工服務(wù)時間)
景觀設(shè)計的聲音特點(diǎn)(聲音景觀設(shè)計案例)