类库
› mini-vla
keivalya/mini-vla
mini-VLA 是一个教育性质的最小化视觉-语言-动作模型,用于演示如何融合图像、文本指令和机器人状态来生成连续动作,便于初学者学习和研究人员快速原型设计。
技术栈
查看全部依赖 (10)
依赖
NumPy
datasets
gymnasium
imageio
metaworld
mujoco
opencv-python
torch
torchvision
tqdm