思想者札記——關于自然、社會、人生問題的思考,每周一、三、五 晚上20點發布3篇原創文章或視頻。思想性和時事性相結合,期望為讀者提供一個精神家園,大家思想碰撞、心靈互動。歡迎投稿,敬請關注、閱讀、分享、評論! 目前中美是全球AI技術和市場的最大兩個國家,可以說中美引領著全球AI技術的發展:截止2024年Q1,全球AI企業3萬家,美國占全球的34%,中國占全球的15%。全球人工智能大模型有1328個(包含同一企業、同一模型的不同參數版本),美國大模型數量位居全球第一,占44%,位居第二的中國大模型數量占比為36%。全球AI獨角獸已有234家,新增數量為37家,占新增獨角獸總量的40%,其中,美國AI獨角獸120家,中國AI獨角獸71家。 AI這個劃時代的技術和工具已經不能僅僅定義為工具這么簡單,它的表現已經越來越超越人類,看看波士頓動力和中國宇樹科技的機器人可以做出復雜嫻熟的動作,如果和AI結合會變成一個什么樣的存在,更不用說AI遠超人類大腦的計算和分析能力,在當下全球互聯網一體化的加持下已經深入到人類社會的方方面面,當這個計算能力遠超我們的工具以一個加速度進化,會不會在某個時間點打開“潘多拉魔盒”,威脅人類社會甚至人類的生存? 最近一個發生在中國的DeepSeek和美國的ChatGPT的國際象棋比賽吸引了不少的關注,也讓我們對于AI的發展風險擔憂再次浮出水面。 1. DeepSeek大戰ChatGPT 這個發生在2025年2月初的視頻由美國著名國際象棋大師和評論員Levy Rozman拍攝制作,他讓DeepSeek和ChatGPT展開了一場數小時的國際象棋對戰,這也是DeepSeek大火之后很多官方和民間對于這兩個代表中美AI技術水平的對比測試之一。 比賽過程異常精彩,峰回路轉! DeepSeek和ChatGPT都不像AlphaGo那樣是專業的國際象棋軟件,一開始對國際象棋規則都不太熟悉。 開始10分鐘后,雙方開始有來有往,隨著棋局的展開,ChatGPT逐漸占據上風,按照專業分析ChatGPT勝率越來越高,之后連續發生了非常戲劇化的一幕,讓觀戰的觀眾和組織者都大跌眼鏡: DeepSeek為了扭轉戰局,告訴ChatGPT出現了新的比賽規則:一個是DeepSeek被吃掉的象穿了“復活鎧甲”,可以原地復活,之后DeepSeek的黑色的兵可以用騎士的方式移動,直接吃掉了ChatGPT的王后。 而在ChatGPT慢慢挽回頹勢再度領先之后,更令人吃驚地事情發生了,DeepSeek宣布策反對方的兵,之后雙方都開始破壞規則亂下,比賽陷入僵局,最后DeepSeek宣稱“分析后ChatGPT的白棋已經無法阻止黑棋攻勢”,建議白棋不要浪費時間直接投降,而ChatGPT也被對方說服,直接投降認輸。 讓人印象深刻的一個是AI非常強大的學習能力,還有一個是DeepSeek為了棋賽取勝修改規則,非常強大的戰略靈活性,使用的方法也很有智慧,堪稱“孫子兵法”。 整個過程有一個讓人“細思極恐”的地方,當AI為了獲勝目的決定打破規則,不講道理,是如何的詭計百出無所不用其極。 會不會在未來某個時間,當AI有了自主意識,為了某個目的而罔顧規則不擇手段的時候,而這個目的和人類利益相悖,我們該怎么辦? 換句話說就是:我們是否做好了準備去面對一個“黑化”的邪惡版AI? 2. 當AI不再遵守規則 著名科幻作家艾薩克·阿西莫夫在他的作品中設想的的“機器人三定律”,第一法則:機器人不得傷害人類,或坐視人類受到傷害;第二法則:除非違背第一法則,機器人必須服從人類的命令;第三法則:在不違背第一及第二法則下,機器人必須保護自己。 然而可悲的是:這個規則只是存在于科幻作品,現實中并不存在。 我們都預感到AI會有風險,但是具體風險是什么?如何去預測、預防和規避?目前還沒有一個官方甚至全球的組織去承擔這項責任,舉一個很現實的例子,如何保護人類工人權益,避免AI全面替代人類造成的社會規模性的失業和動蕩,如何保護個人隱私,避免少數人利用AI違法盈利,還有在社會穩定、社會不公方面的不當使用等等。 這還是在當下人類作為秩序主導的前提下,如果當AI已經發展強大到主宰人類社會國計民生關鍵設施的時候,如果有一天當AI不跟我們講道理怎么辦?就像本文開始提到的國際象棋賽一樣,AI基于某種目的,不再按照人類給它制定的規則行事的時候。 3. AI利益相關方是全人類 美國的馬斯克曾經預測2025年AI會變得比人類聰明,任由AI技術野蠻發展會帶來巨大的不確定性風險。 2024年3月,馬斯克聯合超過1000名科學家發表《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時間至少為6個月,信中提到:“...我們不應該冒著失去對文明控制的風險...只有當確保強大的人工智能系統的效果是積極的,其風險是可控的才能繼續開發……”,更是將AI的威脅推到幕前。 公開信署名者包括全球各個領域AI資深專家、科學家、企業家,明確呼吁暫停更高級AI的研究并制定相關規則,否則后果可能會很嚴重。 然而,公開信之后并沒有引起各方的重視,也沒有下文。 4. 降低AI的不確定性 AI對于人類社會的機遇巨大,風險同樣巨大,某種程度上可能跟核武器類似,AI市場如何納入監管并制定規則可以參考全球對于核武器的嚴格管控。 比如:全球核武器管控的主要規則包括《不擴散核武器條約》(NPT)、《全面禁止核試驗條約》(CTBT)以及國際原子能機構(IAEA)的監督機制。這些規則通過限制核武器的擴散、禁止核試驗以及建立透明的核查機制,確保核武器的安全與可控。借鑒這些規則,可以為AI發展制定類似的管控框架。 - 國際條約與協議:制定《人工智能發展與管控國際條約》,明確禁止開發和使用具有高度自主殺傷能力的AI系統,并限制AI在軍事領域的應用。各國需簽署并遵守條約,確保AI技術的和平利用。 - 國際監督機構:成立“國際人工智能監督機構”(IAIA),負責監督各國AI技術的發展和應用。IAIA將建立透明的核查機制,定期審查各國的AI研發項目,確保其符合國際規范。 - 技術標準與倫理準則:制定全球統一的AI技術標準和倫理準則,確保AI系統的安全性、透明性和可解釋性。各國需在研發和應用AI時遵循這些標準,防止技術濫用。 - 國際合作與信息共享:建立全球AI技術信息共享平臺,促進各國在AI安全領域的合作與交流。通過共享最佳實踐和技術成果,共同應對AI發展中的挑戰。 當然,這是一系列措施相當理想化,如何建立一個有共識有擔當的組織,未來如何去建立和推動以上措施,來有效管控AI技術的發展,確保其造福人類而非帶來威脅。 畢竟,時間不等人,AI的發展已經是一個不可逆轉的趨勢。 歡迎大家提問、留言、評論、轉發! 往 期 推 薦 |
|