23 個工具
Arena(原 LMArena)是一個由社群驅動的人工智慧模型基準測試與對比平台。它透過匿名對戰、使用者投票與 ELO 評分系統,協助使用者評估與比較 GPT、Claude、Gemini 等前沿人工智慧模型在文字、圖像、程式碼等不同任務上的實際表現。
Outlier AI 是一個連接全球專家與 AI 公司的遠端工作平台,透過資料標註、模型評估等任務訓練 AI 模型,讓專業人士利用知識取得靈活收入。

ChatHub AI 是一款聚合多款主流大語言模型的平台,支援使用者在同一介面並排比較不同模型的回答,旨在提升決策效率、驗證資訊並降低單一模型的幻覺風險。

Arena AI 主要提供兩個方向的解決方案:一是作為 AI 模型評測與路由平台,透過社群投票與智能路由協助用戶評估並選擇適合的 AI 模型;二是作為 AI 驅動的社群互動平台,協助企業在其網站上建立與管理即時互動社群,以提升用戶參與度與業務轉化。

Arize AI 是一個面向大型語言模型與智能體的全生命週期可觀測性與評估平台,協助 AI 工程團隊監控、評估與優化模型效能,確保應用可靠性與業務成效。

Evidently AI 是一個專注於機器學習與大型語言模型評估、測試與監控的開源平台,協助資料科學家與工程師確保 AI 系統在生產環境中的品質與可靠性。
Confident AI 是一個專注於大型語言模型評估與可觀測性的平臺,幫助工程師與產品團隊系統化地測試、監控與優化其 AI 應用的效能與可靠性。
Ragas 是一個用於自動化評估、監控和提升檢索增強生成(RAG)系統性能的開源框架,幫助開發者實現可重複、可擴展的系統化評估。
Nexa AI 是一個專注於裝置端 AI 模型部署與優化的平台,提供為本地裝置優化的模型庫與開發工具。其核心價值在於協助開發者與企業在裝置端高效執行 AI 模型,支援離線使用並著重資料隱私。

Future AGI 是一個面向企業的 LLM 可觀測性與評估優化平臺,專注於協助開發者與企業提升 AI 應用(特別是智能體)的準確性、可靠性與效能。該平臺集構建、評估、優化與觀測功能於一體,旨在透過自動化工具加速高精度 AI 應用的開發與部署週期。
透光AI(Transluce)是一款專注於提升 AI 系統可解釷性與安全性的開源研究工具,協助研究人員與開發者理解、除錯及監控 AI 模型的內部行為,推動負責任的 AI 發展。
Humanloop 是一個企業級 AI 開發平台,專注於為以大型語言模型(LLM)為基礎的應用提供從建立、評估、優化到部署的全流程工具。它透過整合提示詞工程、模型評估與可觀測性功能,協助開發團隊提升 AI 應用的可靠性與性能,並支援跨職能協作與安全部署。

phospho AI 是一個開源的文本分析平台,專為大型語言模型(LLM)應用程式設計。它能自動分析使用者與 AI 應用的文字互動,提取關鍵事件與使用者意圖,並提供資料視覺化工具,協助開發人員優化對話體驗與模型效能。
Alle-AI 是一個整合多款主流 AI 模型的一站式聚合平台,支援使用者並行呼叫、比較與整合不同廠商的生成式 AI 工具,旨在提升創作效率與結果可靠性。

Enigma AI 是一個涵蓋多種人工智慧應用與研究的統稱,主要包括決策生成系統、大型語言模型評估基準、腦電圖解碼模型以及智能聊天應用。它為不同領域的用戶提供了從內容創作、程式撰寫到高階推理評估和神經科學研究的多樣化 AI 工具與解決方案。
Captum 是一個基於 PyTorch 的開源模型可解釋性庫,協助開發者理解神經網路模型的預測邏輯與特徵貢獻,適用於模型除錯、演算法研究與效能優化。

Thisorthis.ai 是一個 AI 模型對比平台,透過並排測試與多維度分析,協助用戶高效評估和選擇最適合其任務需求的生成式 AI 模型。

Atla AI 是一個專為 AI 智能體設計的自動化評估與改進平台,透過系統化的分析、監控與優化工具,協助開發者提升智能體的性能、可靠性與開發效率。

OverallGPT Compare AI 是一個 AI 大模型性能對比平台,支援使用者將不同 AI 模型的回應結果進行並排可視化對比。該平台旨在協助使用者、開發者與技術選型者透過直觀的比較,評估並選擇適合其特定需求的 AI 模型。

Langtrace AI 是一個開源的 AI 智能代理可觀測性與評估平台,專注於協助開發者監控、調試和優化基於大型語言模型的應用,協助將 AI 原型轉化為企業級產品。
共 23 項