4 月 17 日消息,OpenAI 今日發(fā)布了一款輕量級終端運行編碼智能體 ——Codex CLI,該工具現已在 GitHub 完全開源。
Codex CLI 可以直接在用戶的計算機上工作,旨在最大化 o3 和 o4-mini 等模型的推理能力,并即將支持 GPT-4.1 等額外的 API 模型。
用戶可以通過命令行獲得多模態(tài)推理的能力,比如通過傳遞截圖或低保真草圖給模型,并結合對本地代碼的訪問。
OpenAI 認為 Codex CLI 是一個將其模型與用戶及其計算機連接起來的最小化界面。Codex CLI 是為已經生活在終端的開發(fā)者設計的,他們想要 ChatGPT 級別的推理能力,以及實際運行代碼、操作文件和迭代的權力 —— 所有這些都在版本控制之下。簡而言之,它是一種理解并執(zhí)行倉庫的聊天驅動開發(fā)工具。
零配置 — 導入 OpenAI API 密鑰,即可直接使用
全自動批準,同時通過運行網絡禁用和目錄沙箱化確保安全
多模態(tài) — 輸入截圖或圖表就可以實現推理功能
Codex CLI 可以在 macOS12+、Ubuntu20.04+/Debian10+、Windows11 的 WSL2 子系統中使用,要求最少擁有 4GB 內存(建議 8GB)。
附 Codex CLI 開源鏈接:
https://github.com/openai/codex
本文鏈接:http://www.tebozhan.com/showinfo-119-144984-0.html在終端就能跑的輕量級推理智能體,OpenAI 發(fā)布完全開源 Codex CLI 工具
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com