Altman談到,當下人工智慧革命影響如此之大的原因,不僅在於其影響的規模,也是其進展的速度。 這同時帶來紅利和風險。
他認為,隨著日益強大的 AI 系統的出現,全球合作的重要性從未如此之大。 在一些重要的大事上,各國間必須進行合作和協調。 推進 AGI (通用人工智慧)安全是各方需要找到共同利益點的最重要的領域之一。
因此國際合作中,他認為有兩個關鍵領域是最重要的。 首先需要建立國際規範和標準,並注意過程中注重包容性。 在任何國家使用 AGI 系統,都應平等而一致地遵循這樣的國際標準和規範。 在這些安全護欄內,我們相信人們有足夠的機會做出自己的選擇。
第二需要國際合作,以可核查的方式建立對安全開發日益強大的 AI 系統的國際間信任。 他並不妄想這是一件容易的事,需要投入大量和持續的關注。
談及此,他引用了《道德經》中的「千里之行,始於足下」。 指出在這方面最具建設性的第一步是與國際科學和技術界合作。
他解釋到,AI對齊,即要求AI系統的目標要和人類的價值觀與利益相對齊仍然是一個未解決的問題。 GPT-4 花了八個月的時間完成對齊方面的工作。 但相關的研究還在升級,主要分為擴展性和可解釋性兩方面。
首先是可擴展的監督,可以嘗試使用人工智慧系統來協助人類監督其他人工智慧系統。 例如,可以訓練一個模型來幫助人類監督發現其他模型的輸出中的缺陷。
第二是解釋能力,即嘗試更好地了解這些模型內部發生了什麼。 OpenAI最近發表了一篇論文使用 GPT-4 來解釋 GPT-2 中的神經元。 在另一篇論文中,使用 Model Internals 來檢測一個模型何時在說謊。 因此還有很長的路要走。 相信先進的機器學習技術可以進一步提高解釋的能力。
在與智源研究院理事長張宏江的對談中,Altman指出,十年內人類將擁有強大的人工智慧系統(AI System)。 另一方面,集中精力確保解決安全方面的技術問題是非常重要的。 科技公司必須設計公平、具有代表性和包容性的系統。
他還透露,OpenAI沒有相關的新的有關開源的時程表,開源模型具有優勢,但開源一切可能並不是一條(促進AI發展的)最佳路線。 在某個時候,會嘗試做GPT-5的模型,但不會是很快。 不知道具體GPT-5出現的時候。
在對談的最後部分,Altman認為,AI安全需要中國研究者的參與和貢獻。