MIT 리서치 팀은 최근 LLM (Lange Language Model)의 교육 방법을 빌리는 새로운 로봇 교육 모델을 개발하기 위해 최근의 주요 획기적인 혁신을 만들었으며 더 이상 특정 데이터 세트에 의존하지 않지만 대규모 정보를 사용하여 교육에 사용됩니다. 이 혁신은 환경 변화와 새로운 도전에 대응하여 전통적인 로봇 훈련 방법에 의해 발생하는 한계를 해결하여 일반 로봇 뇌의 연구 및 개발을위한 탄탄한 토대를 마련 할 것으로 예상됩니다. 이 연구의 중요성은 로봇의 미래를 바꿀 수있는 잠재력이있어 로봇이 복잡하고 변형 가능한 환경에 더 잘 적응하고 더 넓은 범위의 작업을 수행 할 수 있다는 것입니다.
MIT는 이번 주에 특정 데이터 세트에 중점을 둔 이전 교육 방법을 포기하고 대신 LLM (Lange Language Models)에서 훈련 할 때 사용되는 대량의 정보를 사용한 완전히 새로운 로봇 교육 모델을 발표했습니다.
연구원들은 모방 학습, 즉 에이전트가 개인을 모방하여 작업을 수행함으로써 학습하는 것을 작은 도전에 직면했을 때 실패 할 수 있다고 지적합니다. 이러한 과제에는 다른 조명 조건, 다른 환경 환경 또는 새로운 장애물이 포함될 수 있습니다. 이 경우 로봇에는 이러한 변경 사항에 적응하기에 충분한 데이터가 없습니다.
이 팀은 GPT-4와 같은 모델을 빌려서 거친 데이터 중심 문제 해결 방법을 채택했습니다.
이 논문의 주요 저자 인 Lirui Wang은“언어 분야에서 데이터는 문장이다. "로봇 공학 분야에서 다양한 데이터가 주어지면 비슷한 방식으로 사전 훈련을 원한다면 다른 아키텍처가 필요합니다."
이 팀은 다양한 센서와 다른 환경의 정보를 통합하는 HPT (Heergeneous pre-lained Transformer)라는 새로운 아키텍처를 도입했습니다. 그런 다음 데이터는 변압기를 사용하여 훈련 모델에 통합됩니다. 변환기가 클수록 출력 결과가 더 좋습니다.
그런 다음 사용자는 로봇의 디자인, 구성 및 수행하려는 작업에 들어갑니다.
Carnegie Mellon University의 부교수 인 David Held는“우리의 꿈은 훈련없이 로봇을 다운로드하고 사용할 수있는 보편적 인 로봇 뇌를 갖는 것입니다. "우리는 막 시작했지만 스케일 업이 대형 언어 모델과 같은 로봇 전략에서 획기적인 것으로 이어질 수 있기를 바라면서 계속 열심히 일할 것입니다."
이 연구는 Toyota Institute가 부분적으로 자금을 지원했습니다. 작년 TechCrunch Disrupt에서 Tri는 하룻밤 동안 로봇을 훈련시키는 방법을 보여주었습니다. 최근 로봇 학습 연구와 Boston Dynamics의 하드웨어를 결합한 유역 파트너십에 도달했습니다.
MIT 의이 연구는 로봇 공학 분야에 새로운 가능성을 가져 왔으며, 미래의 발전은 기대할 가치가 있습니다. 대형 언어 모델의 성공적인 경험을 활용 함으로써이 모델은 로봇 기술에서 더 큰 발전을 촉진하여 궁극적으로 일반 로봇 뇌의 꿈을 실현하여 로봇이 인간에게 더 유연하고 지능적으로 서비스 할 수 있도록합니다.