bshc.log
로그인
bshc.log
로그인
240721 논문 조사
About_work
·
2024년 7월 21일
팔로우
0
0
LM
목록 보기
3/4
VoxPoser: Composable 3D Value Maps
for Robotic Manipulation with Language Models
243회 인용
2023년, 7월
https://arxiv.org/pdf/2307.05973
PaLM-E: An Embodied Multimodal Language Model
https://arxiv.org/pdf/2303.03378
1019 회 인용
2023년, 3월
RT-2: Vision-Language-Action Models
Transfer Web Knowledge to Robotic Control
397회 인용
2023년, 7월
https://openreview.net/pdf?id=XMQgwiJ7KSX
EmbodiedGPT: Vision-Language Pre-Training via Embodied Chain of Thought
https://proceedings.neurips.cc/paper_files/paper/2023/file/4ec43957eda1126ad4887995d05fae3b-Paper-Conference.pdf
103회 인용
뉴립스
2023년 5월
Physically Grounded Vision-Language Models for Robotic Manipulation
https://arxiv.org/pdf/2309.02561
2023, 9월
41회
LM-Nav: Robotic Navigation with Large Pre-Trained Models of Language, Vision, and Action
https://proceedings.mlr.press/v205/shah23b/shah23b.pdf
2022, 7월
PMLR
272회 인용
RoboCLIP:
One Demonstration is Enough to Learn Robot Policies
https://proceedings.neurips.cc/paper_files/paper/2023/file/ae54ce310476218f26dd48c1626d5187-Paper-Conference.pdf
2023, 10월
20회
뉴립스
MOKA: Open-Vocabulary Robotic Manipulation through Mark-Based Visual Prompting
11회 인용
2024년, 3월
https://arxiv.org/pdf/2403.03174
About_work
새로운 것이 들어오면 이미 있는 것과 충돌을 시도하라.
팔로우
이전 포스트
Visual Instruction Tuning
다음 포스트
Socratic Models: Composing Zero-Shot Multimodal Reasoning with Language
0개의 댓글
댓글 작성