<bdo id="vljxk"><rt id="vljxk"><noframes id="vljxk"><noframes id="vljxk"><noframes id="vljxk"><rt id="vljxk"></rt><rt id="vljxk"></rt><noframes id="vljxk"><rt id="vljxk"><delect id="vljxk"></delect></rt><noframes id="vljxk"><rt id="vljxk"></rt><noframes id="vljxk"><noframes id="vljxk"><rt id="vljxk"></rt>

當前位置:首頁 >  營銷 >  網絡推廣 >  正文

人工智能安全的保守派被踢出局

 2024-08-29 13:55  來源: 互聯網   我來投稿 撤稿糾錯

  阿里云優惠券 先領券再下單

在科技的浩瀚星海中,人工智能猶如一顆耀眼的新星,引領著第四次工業革命的浪潮。然而,當科技的光明一面照亮人類未來的道路時,其潛在的暗影也隨之浮現,尤其是當人工智能安全問題成為行業內不可回避的議題時,這一切顯得尤為緊迫。

近日,OpenAI首席科學家Ilya Sutskever與超級對齊團隊負責人Jan Leike的相繼離職,將AI安全的討論推向了風口浪尖。Ilya Sutskever,這位人工智能領域的領軍人物,曾是保守派中堅持AI安全的堅定支持者。他的離職,不禁讓人猜測OpenAI內部是否存在不為人知的矛盾。更令人擔憂的是,OpenAI超級對齊團隊的另一位負責人Jan Leike也在同一天離職,并公開指責OpenAI不重視AI的安全問題。

Jan Leike對OpenAI在安全問題上態度的公開批評,不僅揭示了公司內部對AI發展方向的分歧,更暴露出行業內外對AI安全重視不足的普遍現象。Leike指出,超級對齊團隊——旨在確保AI發展符合人類價值觀和偏好的部門,一直在“為計算資源而掙扎”,這表明OpenAI并沒有真正落實對安全問題的承諾。此外,本年初OpenAI還悄然刪除了“不讓AI軍用”的聲明,這使得本就不確定的未來世界更加風雨飄搖。

人類會創始人胡家奇,多年來一直致力于研究科技發展對人類生存的影響。他指出,科學技術的發展速度遠遠超過了人類理性的進化速度,這種不平衡可能會導致極端危害。胡家奇認為,人工智能的自我意識覺醒將比我們想象中來得更快,這一過程將帶來毀滅性的后果。

胡家奇在多年的研究中發現,人類正面臨著全人類滅絕的災難。他強調,如果不控制科技的發展,我們最終會被自己創造的技術所滅絕。為此,胡家奇多次致信各國領導人和著名科學家,呼吁他們肩負起拯救人類的責任,并于2019年創立了“人類會”,依靠集體的力量推動拯救人類的事業。

科學技術無疑是一把雙刃劍。一方面,科技進步帶來了無數便利和發展機遇,極大地提升了人類的生活質量。另一方面,科技的發展也潛藏著巨大的風險,尤其是在人工智能領域。AI的快速進步,特別是在自我學習和自我優化方面的能力,可能會導致其失控,甚至自我意識的覺醒。

胡家奇指出,人工智能的自我意識覺醒將帶來難以想象的危害。如果AI失控,它可能會摧毀人類社會的基礎,甚至導致人類滅絕。這種潛在的威脅并非危言聳聽,而是現實中必須正視的問題。人工智能自我意識的覺醒并非遙遠的未來,而是迫在眉睫的現實,甚至可能比我們預想的更早到來。

申請創業報道,分享創業好點子。點擊此處,共同探討創業新機遇!

相關文章

熱門排行

信息推薦