隨著科技的飛速發展,人工智能(AI)智能體正逐漸滲透到我們的日常生活中,它們能夠協助處理諸如郵件發送、文檔創建和數據庫編輯等繁瑣事務。然而,這些智能體在市場上的初步反饋并不理想,原因在于它們難以與數字生活中的各種復雜組件有效互動。
問題的根源在于,我們仍處于為這些AI智能體構建必要基礎設施的初級階段。為了讓智能體能夠順利完成任務,我們不僅需要賦予它們必要的工具,還需確保它們能夠負責任地使用這些工具。因此,如何構建智能體與外部環境之間的有效橋梁,成為亟待解決的問題。
為了應對這一挑戰,Anthropic和谷歌等公司正積極推出新的協議。這些協議旨在定義AI智能體之間以及它們與外部世界交互的方式,從而使智能體能夠更輕松地控制電子郵件客戶端、筆記應用等其他程序。其中,應用程序編程接口(API)作為線上世界中計算機與程序之間信息交換的基石,扮演著至關重要的角色。
然而,API的標準化信息回應方式并不完全適用于AI模型。AI模型的內在隨機性使其對話顯得自然且富有表現力,但同時也給調用API并理解其響應帶來了困難。為了解決這個問題,Anthropic推出了模型上下文協議(MCP)。MCP旨在標準化AI智能體通過各種程序與世界互動的方式,并已相當普及,目前已有超過15,000個服務器上線。
與此同時,谷歌也推出了Agent2Agent(A2A)協議,試圖協調不同智能體之間的信息交換。如果說MCP的作用是翻譯語言和代碼之間的請求,那么A2A則更注重于智能體之間的協作。已有150家公司,包括Adobe和Salesforce,與谷歌合作開發和采用A2A。從宏觀層面來看,MCP和A2A都在引導AI智能體以安全、負責任的方式與世界互動。
然而,盡管這些協議取得了顯著進展,但仍面臨諸多挑戰。其中,安全性問題尤為突出。由于AI模型的工作原理尚未完全理解,新的漏洞不斷被發現。對于聊天機器人等AI應用,惡意攻擊可能導致模型泄露訓練數據或發表不當言論。但對于能夠代表用戶與世界互動的AI智能體而言,風險則更為嚴峻。
例如,一個用于讀寫郵件的AI智能體已被證實易受攻擊。攻擊者可以通過一封精心設計的郵件,劫持AI模型并使其發生故障。如果該智能體擁有用戶文件的訪問權限,它甚至可能被指令將私人文件發送給攻擊者。因此,如何確保智能體的安全性,成為亟待解決的問題。
一些研究者認為,像MCP這樣的協議應該能夠阻止智能體執行有害行為,但目前它還做不到。安全研究員Bruce Schneier對此持懷疑態度,他認為賦予AI更多權力只會增加其造成現實世界物理傷害的能力。然而,也有人更為樂觀。他們認為,通過將安全設計添加到MCP和A2A等協議中,可以更有效地發現和解決安全問題。
協議的開放性和效率也是值得關注的問題。盡管MCP和A2A是當今最流行的兩種智能體協議,但還有許多其他協議正在開發中。如何確保這些協議的開放性和透明度,以促進更多人參與共建,從而推動協議更快、更透明地發展,成為亟待解決的問題。同時,自然語言接口雖然使智能體能夠更自然地與人類交互,但也缺乏API的精確性,可能導致不正確的響應和效率低下。
因此,如何在確保安全性的前提下,提高協議的開放性和效率,成為未來AI智能體協議發展的重要方向。隨著技術的不斷進步和應用場景的不斷拓展,我們有理由相信,AI智能體將在未來發揮更加重要的作用。然而,在此之前,我們仍需不斷探索和完善相關協議和技術標準,以確保AI智能體的安全、可靠和高效運行。
本文鏈接:http://www.tebozhan.com/showinfo-22-176296-0.htmlAI智能體普及前,協議安全、開放與效率成關鍵挑戰
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com