Même avec tout ce qui s’est passé dans le monde cette année, nous avons quand même eu la chance de voir émerger de nombreuses recherches étonnantes. Notamment dans le domaine de l’intelligence artificielle et plus précisément de la vision par ordinateur. De plus, de nombreux aspects importants ont été mis en avant cette année, comme les aspects éthiques, les préjugés importants et bien plus encore. L'intelligence artificielle et notre compréhension du cerveau humain et de son lien avec l'IA évoluent constamment, montrant des applications prometteuses dans un avenir proche, que je couvrirai certainement.
Voici mon top 10 des articles de recherche les plus intéressants de l’année en vision par ordinateur, au cas où vous en auriez manqué. En bref, il s'agit essentiellement d'une liste organisée des dernières avancées en matière d'IA et de CV avec une explication vidéo claire, un lien vers un article plus approfondi et du code (le cas échéant). Bonne lecture et faites-moi savoir si j'ai manqué des articles importants dans les commentaires, ou en me contactant directement sur LinkedIn !
La référence complète de chaque article est répertoriée à la fin de ce référentiel.
Responsable - louisfb01
N'hésitez pas à m'envoyer un message pour tout article intéressant que j'ai manqué à ajouter à ce référentiel sur [email protected]
Identifiez-moi sur Twitter @Whats_AI ou LinkedIn @Louis (What's AI) Bouchard si vous partagez la liste !
Une liste organisée des dernières avancées en matière d'IA par date de sortie avec une explication vidéo claire, un lien vers un article plus approfondi et du code.
2020 : une année pleine d'articles étonnants sur l'IA – Une revue
Vous êtes-vous déjà demandé à quoi ressemblerait l'océan sans eau? Supprimez cette teinte bleu-vert des images sous-marines tout en conservant les vraies couleurs d'un récif de corail ? Eh bien, en utilisant des algorithmes de vision par ordinateur et d’apprentissage automatique, des chercheurs de l’Université de Haïfa ont pu accomplir exactement cela !
Des chercheurs de l'IST Autriche et du MIT ont réussi à entraîner une voiture autonome à l'aide d'un nouveau système d'intelligence artificielle basé sur le cerveau de minuscules animaux, tels que les vers filiformes. Ils y sont parvenus avec seulement quelques neurones capables de contrôler la voiture autonome, comparé aux millions de neurones nécessaires aux réseaux neuronaux profonds populaires tels que Inceptions, Resnets ou VGG. Leur réseau était capable de contrôler complètement une voiture en utilisant seulement 75 000 paramètres, composés de 19 neurones de contrôle, plutôt que des millions !
Cette nouvelle méthode est capable de générer une scène complète en 3 dimensions et de décider de l'éclairage de la scène. Tout cela avec des coûts de calcul très limités et des résultats étonnants par rapport aux approches précédentes.
Cette 4ème version a été récemment introduite en avril 2020 par Alexey Bochkovsky et al. dans l'article "YOLOv4 : Vitesse et précision optimales de la détection d'objets". L'objectif principal de cet algorithme était de créer un détecteur d'objets ultra-rapide et de haute qualité en termes de précision.
Ce nouvel algorithme transforme une image floue en une image haute résolution ! Il peut prendre une image 16x16 à très basse résolution et la transformer en un visage humain haute définition 1080p ! Tu ne me crois pas ? Alors vous pouvez faire comme moi et l'essayer vous-même en moins d'une minute ! Mais d’abord, voyons comment ils ont fait cela.
Une bonne IA, comme celle utilisée dans Gmail, peut générer un texte cohérent et terminer votre phrase. Celui-ci utilise les mêmes principes afin de compléter une image ! Le tout dans le cadre d'une formation non supervisée et sans aucune étiquette requise !
Vous pouvez désormais générer des images de visage de haute qualité à partir de croquis approximatifs ou même incomplets sans aucune compétence en dessin grâce à cette nouvelle technique de traduction d'image à image ! Si vos compétences en dessin sont aussi mauvaises que les miennes, vous pouvez même ajuster l'impact des yeux, de la bouche et du nez sur l'image finale ! Voyons si cela fonctionne vraiment et comment ils l'ont fait.
Cette IA génère des reconstructions 3D haute résolution de personnes à partir d'images 2D ! Il suffit d’une seule image de vous pour générer un avatar 3D qui vous ressemble, même de dos !
Le prix du meilleur article ECCV 2020 est décerné à l'équipe de Princeton. Ils ont développé un nouveau modèle entraînable de bout en bout pour le flux optique. Leur méthode surpasse la précision des architectures de pointe sur plusieurs ensembles de données et est bien plus efficace. Ils ont même rendu le code accessible à tous sur leur Github !
Cette IA peut combler les pixels manquants derrière un objet en mouvement supprimé et reconstruire l'intégralité de la vidéo avec bien plus de précision et moins de flou que les approches de pointe actuelles !
Imaginez avoir les vieilles photos pliées et même déchirées de votre grand-mère lorsqu'elle avait 18 ans en haute définition sans aucun artefact. C'est ce qu'on appelle la restauration de photos anciennes et cet article vient d'ouvrir une toute nouvelle voie pour résoudre ce problème en utilisant une approche d'apprentissage en profondeur.
Le maillage humain est une tâche extrêmement intéressante dans laquelle le but est de trouver n'importe quel humain sur une image et d'en supprimer l'arrière-plan. C'est vraiment difficile à réaliser en raison de la complexité de la tâche, devoir trouver la ou les personnes ayant le contour parfait. Dans cet article, je passe en revue les meilleures techniques utilisées au fil des années et une nouvelle approche publiée le 29 novembre 2020. De nombreuses techniques utilisent des algorithmes de base de vision par ordinateur pour réaliser cette tâche, comme l'algorithme GrabCut, qui est extrêmement rapide, mais pas très précis.
DeOldify est une technique permettant de coloriser et de restaurer d'anciennes images en noir et blanc ou même des séquences de films. Il a été développé et est toujours mis à jour par une seule personne, Jason Antic. Il s'agit désormais de la méthode de pointe pour coloriser des images en noir et blanc, et tout est open source, mais nous y reviendrons dans un instant.
Identifiez-moi sur Twitter @Whats_AI ou LinkedIn @Louis (What's AI) Bouchard si vous partagez la liste !
[1] Akkaynak, Derya et Treibitz, Tali. (2019). Sea-Thru : une méthode pour éliminer l'eau des images sous-marines. 1682-1691. 10.1109/CVPR.2019.00178.
[2] Lechner, M., Hasani, R., Amini, A. et al. Politiques de circuits neuronaux permettant une autonomie vérifiable. Nat Mach Intell2, 642-652 (2020). https://doi.org/10.1038/s42256-020-00237-3
[3] PP Srinivasan, B. Deng, X. Zhang, M. Tancik, B. Mildenhall et JT Barron, « Nerv : champs de réflectance neuronale et de visibilité pour le rééclairage et la synthèse de vue », dans arXiv, 2020.
[4] A. Bochkovskiy, C.-Y. Wang et H.-YM Liao, Yolov4 : Vitesse et précision optimales de détection d'objets, 2020. arXiv :2004.10934 [cs.CV].
[5] S. Menon, A. Damian, S. Hu, N. Ravi et C. Rudin, Pulse : suréchantillonnage de photos auto-supervisé via l'exploration de l'espace latent de modèles génératifs, 2020. arXiv : 2003.03808 [cs.CV].
[6] M. Chen, A. Radford, R. Child, J. Wu, H. Jun, D. Luan et I. Sutskever, « Pré-entraînement génératif à partir de pixels », dans Actes de la 37e Conférence internationale sur l'apprentissage automatique, HD III et A. Singh, Eds., ser. Actes de recherche sur l'apprentissage automatique, vol. 119, Virtuel : PMLR, 13-18 juillet 2020, pp. 1691-1703. [En ligne].
[7] S.-Y. Chen, W. Su, L. Gao, S. Xia et H. Fu, « DeepFaceDrawing : génération profonde d'images de visage à partir de croquis », ACM Transactions on Graphics (Actes d'ACM SIGGRAPH2020), vol. 39, non. 4, 72 : 1–72 : 16, 2020. Disponible : http://proceedings.mlr.press/v119/chen20s.html.
[8] S. Saito, T. Simon, J. Saragih et H. Joo, Pifuhd : Fonction implicite alignée sur les pixels à plusieurs niveaux pour la numérisation humaine 3D haute résolution, 2020. arXiv : 2004.00452 [cs.CV].
[9] Z. Teed et J. Deng, Raft : transformations de champ récurrentes toutes paires pour le flux optique, 2020. arXiv : 2003.12039 [cs.CV].
[10] Y. Zeng, J. Fu et H. Chao, Apprendre les transformations spatio-temporelles conjointes pour la peinture vidéo, 2020. arXiv : 2007.10247 [cs.CV].
[Bonus 1] Z. Wan, B. Zhang, D. Chen, P. Zhang, D. Chen, J. Liao et F. Wen, Restauration de photos anciennes via une traduction d'espace latent profond, 2020. arXiv : 2009.07047 [cs. CV].
[Bonus 2] Z. Ke, K. Li, Y. Zhou, Q. Wu, X. Mao, Q. Yan et RW Lau, "Un écran vert est-il vraiment nécessaire pour le matage de portraits en temps réel ?" ArXiv, vol. abs/2011.11961, 2020.
[Bonus 3] Jason Antic, créateur de DeOldify, https://github.com/jantic/DeOldify