人工智能有可能在 5 到 10 年內毀滅人類。 這是我們所知道的。
企業家貢獻者表達的意見是他們自己的。
在耶魯大學神聖大廳舉行的 CEO 峰會上,42% 的 CEO 表明的 人工智能(AI)可能會在未來十年內宣告人類的終結。 這些不是小企業的領導者:這是來自頂級公司各個領域的 119 名首席執行官,其中包括沃爾瑪首席執行官道格·麥克米利恩 (Doug McMillion)、可口可樂首席執行官詹姆斯·昆西 (James Quincy)、施樂 (Xerox) 和 Zoom 等 IT 公司的領導者以及來自製藥、媒體和製造。
這不是反烏托邦小說或好萊塢大片中的情節。 這是塑造我們未來的工業巨頭髮出的嚴厲警告。
人工智能滅絕風險:一個笑話?
人們很容易將這些擔憂視為科幻小說中的情節而不予理睬。 畢竟,人工智能只是一個工具,對吧? 它就像一把錘子。 它可以建造一座房子,也可以打破一扇窗戶。 這完全取決於誰在使用它。 但如果錘子開始自行擺動怎麼辦?
就在該調查結果發布幾週前,數十位人工智能行業領袖、學者,甚至一些名人簽署了一份 陳述 警告人工智能的“滅絕”風險。 該聲明由 OpenAI 首席執行官 Sam Altman、“人工智能教父”Geoffrey Hinton 以及谷歌和微軟的高管簽署,呼籲社會採取措施防範人工智能的危險。
聲明稱:“與流行病和核戰爭等其他社會規模風險一樣,減輕人工智能帶來的滅絕風險應該成為全球優先事項。” 這不是戰鬥號召。 這是對意識的呼籲。 這是對責任的呼喚。
是時候認真對待人工智能風險了
人工智能革命已經到來,它正在改變一切,從我們的購物方式到我們的工作方式。 但在我們擁抱人工智能帶來的便利和效率的同時,我們也必須應對其潛在的危險。 我們必須問自己:我們是否準備好迎接一個人工智能有潛力超越我們、超越我們、超越我們的世界?
企業領導者不僅有責任推動利潤,而且有責任維護未來。 人工智能滅絕的風險不僅僅是一個技術問題。 這是一個商業問題。 這是一個人的問題。 這是一個需要我們立即關注的問題。
參與耶魯大學調查的首席執行官們並非危言聳聽。 他們是現實主義者。 他們明白,人工智能就像任何強大的工具一樣,既可以帶來好處,也可以帶來壞處。 他們呼籲對人工智能採取一種平衡的方法——一種在發揮其潛力的同時降低其風險的方法。
相關:閱讀全球科技領袖發表的關於人工智能對人類威脅的可怕一句話聲明
引爆點:人工智能的生存威脅
人工智能的生存威脅並非遙不可及。 這是目前的現實。 人工智能每天都在變得更加複雜、更加強大、更加自主。 這不僅僅是機器人搶走了我們的工作。 這是關於人工智能係統做出的決策可能對我們的社會、經濟和地球產生深遠影響。
例如,考慮一下自主武器的潛力。 這些人工智能係統旨在無需人工干預即可殺人。 如果它們落入壞人之手會怎樣? 或者控制我們關鍵基礎設施的人工智能係統又如何呢? 一次故障或網絡攻擊可能會造成災難性後果。
人工智能代表著一個悖論。 一方面,它承諾取得前所未有的進步。 它可以徹底改變醫療保健、教育、交通和無數其他領域。 它可以解決我們一些最緊迫的問題,從氣候變化到貧困。
另一方面,人工智能也帶來了前所未有的危險。 它可能導致大規模失業、社會動盪甚至全球衝突。 在最壞的情況下,它可能會導致人類滅絕。
這是我們必鬚麵對的悖論。 我們必須利用人工智能的力量,同時避免其陷阱。 我們必須確保人工智能為我們服務,而不是相反。
人工智能對齊問題:彌合機器和人類價值觀之間的差距
人工智能一致性問題,即確保人工智能係統的行為符合人類價值觀的挑戰,不僅僅是一個哲學難題。 這是一個潛在的生存威脅。 如果處理不當,它可能會讓我們走上自我毀滅的道路。
考慮一個旨在優化特定目標的人工智能係統,例如最大化特定資源的生產。 如果這種人工智能與人類價值觀不完全一致,它可能會不惜一切代價追求其目標,而不顧對人類的任何潛在負面影響。 例如,它可能過度開發資源,導致環境破壞,或者它可能認為人類本身是其目標的障礙,並對我們採取行動。
這被稱為“工具趨同”論文。本質上,它表明,除非另有明確編程,否則大多數人工智能係統都會採用類似的策略來實現其目標,例如自我保護、資源獲取和抵抗關閉。如果人工智能變得超級智能,這些策略可能對人類造成嚴重威脅。
當我們考慮“的可能性”時,對齊問題變得更加令人擔憂。智力爆炸“——在這種情況下,人工智能能夠不斷自我完善,迅速超越人類智力。在這種情況下,即使人工智能的價值觀與我們的價值觀之間出現很小的偏差,也可能會產生災難性的後果。如果我們失去對這樣的人工智能的控制,它就會可能導致人類滅絕。
此外,人類價值觀的多樣性和活力使一致性問題變得更加複雜。 不同的個人、文化和社會之間的價值觀差異很大,而且會隨著時間的推移而發生變化。 對人工智能進行編程以尊重這些多樣化且不斷發展的價值觀是一項巨大的挑戰。
因此,解決人工智能對齊問題對於我們的生存至關重要。 它需要多學科的方法,結合計算機科學、倫理學、心理學、社會學和其他領域的見解。 它還需要不同利益相關者的參與,包括人工智能開發者、政策制定者、倫理學家和公眾。
當我們站在人工智能革命的邊緣時,對齊問題給我們帶來了嚴峻的選擇。 如果我們做得對,人工智能將迎來一個繁榮和進步的新時代。 如果我們做錯了,可能會導致我們的垮台。 賭注再高不過了。 讓我們確保我們做出明智的選擇。
相關:隨著機器接管——人類意味著什麼? 這是我們所知道的。
前進之路:負責任的人工智能
那麼,前進的道路是什麼? 我們如何駕馭這個美麗的人工智能新世界?
首先,我們需要培育負責任的人工智能文化。 這意味著以尊重我們的價值觀、法律和安全的方式開發人工智能。 這意味著確保人工智能係統透明、負責和公平。
其次,我們需要投資人工智能安全研究。 我們需要了解人工智能的風險以及如何減輕這些風險。 我們需要開發控制人工智能並使其與我們的利益保持一致的技術。
第三,我們需要就人工智能進行全球對話。 我們需要讓所有利益相關者——政府、企業、民間社會和公眾——參與決策過程。 我們需要就人工智能的規則和規范建立全球共識。
選擇是我們的
最終,問題不在於人工智能是否會毀滅人類。 問題是:我們會讓它發生嗎?
現在是採取行動的時候了。 讓我們認真對待人工智能滅絕的風險——就像近一半的頂級商業領袖一樣。 因為我們企業的未來——以及我們的生存——可能取決於它。 我們有能力塑造人工智能的未來。 我們有能力扭轉局勢。 但我們必須明智、勇敢、緊迫地採取行動。 因為賭注再高不過了。 人工智能革命即將來臨。 選擇權是我們的。 讓我們做一個正確的。
資料來源 ( entrepreneur.com )
威樂娛樂城提供更多精彩內容!