没啥标题

活下去

看上去是那种一句话生成仿真环境的。

  1. 一句话->llm生成代码?assets还是得自己搞吧->传到环境里面这个流程?
    1. 基本流程是propose-generate-learn
    2. 不是直接生成代码,与最近采用大型语言模型等基础模型直接产生策略或低级行动的努力相比,robogen只提取完全属于这些模型的能力和模式的信息——对象语义、对象可供性、关于哪些任务值得学习的常识性知识等。不过我也不知道这个指什么
  2. 用的什么环境,issac gym吗,居然是genesis
  3. asset有没有好用的数据库 里面提到几个,还有图片生成mesh的,没有考虑collision吗
    1. 放置asset的时候,RoboGen 指示 GPT-4 以无碰撞的方式放置对象:当 LLM 生成对象的初始姿势时,我们会提示它利用其基本的空间理解,并尝试将对象放置在不同的位置。我们将其用作初始化,并检查初始场景配置中的潜在冲突。对于两个对象之间检测到的任何碰撞,我们识别接触对象的碰撞节点,并沿碰撞法线的相反方向推开它们的质心以解决碰撞。
    2. collision-free 动作基元与运动规划相结合,在解决任务时更可靠,例如通过无碰撞路径接近目标对象
    3. 看起来论文里面涉及到collision的就这些了,那collision属性不考虑了?
  4. 看样子是2finger机器人,什么模型抓取的,视觉? 居然是吸盘式的
阅读全文 »

在映射过程中,描述不同函数变量间变化速度的导数非常重要,Jacobian矩阵提供了一种表达局部输出对于输入的敏感度的方法。

阅读全文 »
0%