
OpenLIT AI는 OpenTelemetry 표준 기반의 오픈소스 플랫폼으로, 생성형 AI 및 대형 언어 모델(LLM) 애플리케이션에 대한 관측성, 모니터링 및 평가 기능을 제공합니다.
LLM 요청의 메타데이터, 성능 지표, 비용 정보를 자동 계측으로 수집하며 분산 추적, 대시보드 시각화 및 오류 분석 기능을 제공합니다.
다양한 통합 방식을 지원합니다. SDK 설치로 소량의 코드 연동만으로 사용 가능하며, Kubernetes 환경에서는 Operator를 통해 코드 변경 없이 모니터링을 주입할 수 있습니다.
자체 호스팅(온프레미스) 배포를 지원하며 Docker Compose나 Kubernetes로 배포할 수 있고, 클라우드 네이티브 배포 형태도 지원합니다.
플랫폼 내장 평가 프레임워크를 통해 프롬프트, 모델 및 엔드투엔드 애플리케이션의 성능을 평가할 수 있으며 출력물의 품질 관련 지표를 분석합니다.
공식 라이선스 정보를 기준으로 Apache-2.0 라이선스를 적용한 오픈소스 프로젝트로, 사용자가 무료로 사용하고 배포할 수 있습니다.

Langfuse AI는 오픈 소스 LLM 엔지니어링 및 운영 플랫폼으로, 개발 팀이 대형 언어 모델 기반 애플리케이션을 구축하고 모니터링하며 디버깅하고 최적화하는 데 도움을 주는 것을 목표로 합니다. 이 플랫폼은 애플리케이션 추적, 프롬프트 관리, 품질 평가 및 비용 분석 등의 기능을 제공하여 AI 애플리케이션의 개발 효율성과 관찰 가능성을 향상시킵니다.

Evidently AI 는 머신러닝과 대형 언어 모델의 평가, 테스트 및 모니터링에 초점을 맞춘 오픈 소스 플랫폼으로, 데이터 사이언티스트와 엔지니어가 생산 환경에서의 AI 시스템 품질과 신뢰성을 확보하는 데 도움을 줍니다.

Adaline AI는 대형 언어 모델(LLM) 기반 애플리케이션 개발 및 관리에 중점을 둔 협업 플랫폼으로, 팀이 LLM 기반 AI 솔루션을 신속하게 개발하고 최적화하며 배포하는 데 도움을 줍니다.

Openlayer AI는 통합된 AI 거버넌스 및 관찰성(오브저버빌리티) 플랫폼으로, 기업이 머신러닝과 대규모 언어 모델(LLM) 시스템을 안전하고 규정에 맞게 구축·테스트·배포·모니터링할 수 있도록 지원하여 배포 신뢰성과 운영 효율을 높여줍니다.

LangWatch AI는 AI 개발 팀을 위한 LLMOps 플랫폼으로, AI 에이전트(AI Agent)와 대형 언어 모델(LLM) 애플리케이션의 테스트, 평가, 모니터링 및 최적화 기능에 집중합니다. 개발에서 운영에 이르는 전체 라이프사이클을 포괄하는 신뢰 가능한 테스트 가능 AI 시스템 구축을 돕습니다.
OpenMeter는 사용량 기반 가격 정책을 구현하고 서비스 수익화를 가속화하는 데 도움을 주는 오픈소스 실시간 사용량 측정 및 과금 플랫폼입니다.

Freeplay AI는 기업의 AI 엔지니어링 팀을 위한 개발 및 운영 플랫폼으로, 대형 언어 모델 기반 애플리케이션의 효율적인 구축, 테스트, 모니터링 및 최적화를 돕는 데 집중합니다. 협업 개발, 생산 상태 가시성 및 지속적 최적화 도구를 제공하여 개발 프로세스를 표준화하고 AI 애플리케이션의 신뢰성과 반복 속도를 높이는 것을 목표로 합니다.

WhyLabs AI는 AI 가시성 및 보안에 중점을 둔 플랫폼으로, 생산 환경의 머신러닝 모델과 생성형 AI 애플리케이션에 대한 모니터링, 보호 및 최적화 기능을 제공하여 팀이 AI 시스템의 성능과 위험을 관리할 수 있도록 돕습니다.
Laminar AI는 대형 언어 모델 기반 애플리케이션과 에이전트를 구축하고 모니터링, 평가 및 최적화하는 오픈 소스 AI 엔지니어링 및 관측성 플랫폼입니다.

Langtrace AI는 대형 언어 모델 기반 애플리케이션의 모니터링, 디버깅 및 최적화를 통해 AI 프로토타입을 신뢰할 수 있는 엔터프라이즈급 제품으로 전환하는 오픈 소스 관측성/평가 플랫폼입니다.