Impressionante tomada de decisões/aprendizado por reforço
Esta é uma lista de materiais de pesquisa de última geração relacionados à tomada de decisões e planejamento de movimentos. Gostaria que pudesse ser útil tanto para a academia quanto para a indústria. (Ainda atualizando)
Mantenedores : Jiachen Li (Universidade da Califórnia, Berkeley)
E-mail : [email protected]
Sinta-se à vontade para solicitar a adição de novos recursos ou enviar-nos e-mails para perguntas, discussões e colaborações.
Nota : Aqui está também uma coleção de materiais de pesquisa para previsão de trajetória (comportamento) consciente da interação.
RL & IRL & GAIL
- Aprendizado de reforço inverso profundo de entropia máxima, 2015, [artigo]
- Aprendizado de custos guiado: controle ideal inverso profundo via otimização de políticas, ICML 2016, [artigo]
- Aprendizagem de Imitação Adversarial Generativa, NIPS 2016, [artigo]
- Uma conexão entre redes adversárias generativas, aprendizagem por reforço inverso e modelos baseados em energia, NIPS 2016, [artigo]
- InfoGAIL: Aprendizagem de imitação interpretável a partir de demonstrações visuais, NIPS 2017, [artigo] [código]
- Aprendizagem de auto-imitação, ICML 2018, [artigo] [código]
- Aprendizagem por reforço hierárquico com eficiência de dados, NIPS 2018, [artigo]
- Aprendendo recompensas robustas com aprendizagem por reforço inverso adversário, ICLR 2018, [artigo]
- Aprendizagem de imitação adversária generativa multiagente, ICLR 2018, [artigo]
- Aprendizado de reforço inverso adversário multiagente, ICML 2019, [artigo]
Condução Autônoma
- Uma pesquisa de aplicações de aprendizagem profunda para controle de veículos autônomos, IEEE Transaction on ITS 2019, [artigo]
- Imitando o comportamento do motorista com redes adversárias generativas, IV 2017, [artigo] [código]
- Aprendizado de imitação multiagente para simulação de direção, IROS 2018, [artigo] [código]
- Simulando propriedades emergentes do comportamento de direção humano usando aprendizagem de imitação aumentada de recompensa multiagente, ICRA 2019, [artigo] [código]
- Aprendendo com Demonstração na Natureza, ICRA 2018, [artigo]
- Condução autônoma conectada multiagente usando Deep Reinforcement Learning, NeurIPS 2019, [artigo] [código]
- Aprendizado de reforço profundo sem modelo para direção autônoma urbana, ITSC 2019, [artigo]
- Condução de ponta a ponta por meio de aprendizagem por imitação condicional, ICRA 2018, [artigo]
- CIRL: Aprendizagem por reforço imitativo controlável para direção autônoma baseada na visão, ECCV 2018, [artigo] [código]
- Uma abordagem baseada em aprendizagem por reforço para manobras automatizadas de mudança de faixa, IV 2018, [artigo]
- Aprendizagem por reforço inverso adversário para tomada de decisão em direção autônoma, ICRA 2020, [artigo]
- Aprendizagem por reforço hierárquico profundo para direção autônoma com comportamentos distintos, IV 2018, [artigo]
- Uma arquitetura hierárquica para tomada de decisão sequencial em direção autônoma usando Deep Reinforcement Learning, ICML 2019, [artigo]
- Planejador de movimento neural interpretável de ponta a ponta, CVPR 2019, [artigo]
- Comportamento que pode ser aprendido em conjunto e planejamento de trajetória para veículos autônomos, IROS 2019, [artigo]
- Entrada dinâmica para aprendizagem por reforço profundo em direção autônoma, IROS 2019, [artigo]
- Aprendendo a navegar em cidades sem mapa, NIPS 2018, [artigo]
- Teste escalonável de veículos autônomos de ponta a ponta por meio de simulação de eventos raros, NIPS 2018, [artigo]
- Rumo ao aprendizado de negociações multiagentes via self-play, ICCV 2019, [artigo]
Simulador e conjunto de dados
- CARLA: Um Simulador de Condução Urbana Aberto, [artigo]
- TORCS: O simulador de carro de corrida aberto, [papel]
- Comma.ai: Aprendendo um simulador de direção, [artigo]
- NGSIM: conjunto de dados da rodovia 101 dos EUA, [docs]