前言 想把 LLM 用到產品裡,常常會卡在名詞與角色分不清楚: LLM 到底是不是 Agent?Tool Use 的角色又是什麼? LLM Client 跟 MCP Client 又差在哪?
前言 自 GPT-4 問世以來,「Function Calling」幾乎是所有開發者的入門關鍵字。 而如今,它不再只是「呼叫一個函式」的技術,而是被整合進更大的 Tool Use(工具使用) 生態中。 這場變化不只是改名,而是從「讓模型能呼叫函式」,邁向「讓模型能靈活運用整個工具生態」的思維轉折。
為什麼要自己建 OpenAI 相容 API? 生成式 AI 爆發後,OpenAI 的 API 幾乎成為業界標準。 不論是客服機器人、程式助理還是知識問答系統,開發者都習慣透過 OpenAI 的 /v1/chat/completions 介面來呼叫 GPT 模型。
前言 自 2020 年以來,OpenAI 的文字生成 API 一路從「文字補全」(Completion)進化到「多輪對話」(Chat Completion)架構。 在使用 OpenAI API 時,許多人會注意到有兩個看似相似的端點:
前言 在 AWS EC2 機器上開發 AI 應用時,若使用 HuggingFace 模型(例如 intfloat/multilingual-e5-large)搭配 FastAPI,可能會遇到兩個常見錯誤:
前言 在實際開發或部署 Python 應用程式的過程中,我們常常會遇到一個問題 在沒有安裝 Python 的電腦上,該怎麼快速執行我們的程式?
前言 在實務專案開發中,有時我們並不希望自己的 Python 原始碼(.py)被直接查看或輕易地被他人反編譯。Python 提供了多種檔案格式,包括 .py、.pyc、.pyo、.pyw、.pyd 等等,其中只有 .pyd 格式不易被反編譯,因為它本質上是二進位檔案(Windows 平台的 Extension Module),且相較於一般的 Python 程式碼,經過編譯後的 .pyd 檔案還能提供更快的執行速度。
前言 本教學將協助你透過一條網路線,直接將 Jetson Nano Orin 與你的電腦建立「點對點(P2P)」乙太網路連線,並以固定 IP 模式登入裝置,適用於開發測試環境、無 Wi-Fi 的場景。