类库
› autoevals
braintrustdata/autoevals
AutoEvals是一个由Braintrust开发的AI模型输出评估工具,用于快速评估大语言模型生成内容的质量。它集成了多种自动评估方法,包括基于LLM的评判、启发式算法和统计指标,支持事实性、安全性等主观任务的模型打分评估。用户可以使用预置的评估模板或自定义评估标准。
技术栈
evals javascript
查看全部依赖 (6)
依赖
autoevals
workspace:*
braintrust
^0.0.140
zod
^3.22.4
开发依赖
@types/node
^20.10.5
duckdb
^1.0.0
tsx
^3.14.0
根目录 javascript
测试
Vitest
^2.1.9
查看全部依赖 (20)
依赖
ajv
^8.17.1
compute-cosine-similarity
^1.1.0
js-levenshtein
^1.1.6
js-yaml
^4.1.0
linear-sum-assignment
^1.0.7
mustache
^4.2.0
openai
^6.3.0
zod
^3.25.76
zod-to-json-schema
^3.24.6
开发依赖
@rollup/plugin-yaml
^4.1.2
@types/js-levenshtein
^1.1.3
@types/js-yaml
^4.0.9
@types/mustache
^4.2.6
@types/node
^20.19.11
msw
^2.10.5
tsup
^8.5.0
tsx
^3.14.0
typedoc
^0.25.13
typedoc-plugin-markdown
^3.17.1
typescript
^5.9.2