Trotz allem, was in diesem Jahr auf der Welt passiert ist, hatten wir immer noch die Chance, eine Menge erstaunlicher Forschungsergebnisse zu sehen. Vor allem im Bereich der künstlichen Intelligenz und genauer gesagt der Computer Vision. Darüber hinaus wurden in diesem Jahr viele wichtige Aspekte hervorgehoben, etwa ethische Aspekte, wichtige Vorurteile und vieles mehr. Künstliche Intelligenz und unser Verständnis des menschlichen Gehirns und seiner Verbindung zur KI entwickeln sich ständig weiter und zeigen in naher Zukunft vielversprechende Anwendungen, auf die ich auf jeden Fall eingehen werde.
Hier sind meine Top 10 der interessantesten Forschungsarbeiten des Jahres zum Thema Computer Vision, falls Sie eine davon verpasst haben. Kurz gesagt handelt es sich im Wesentlichen um eine kuratierte Liste der neuesten Durchbrüche in den Bereichen KI und Lebenslauf mit einer klaren Videoerklärung, einem Link zu einem ausführlicheren Artikel und Code (falls zutreffend). Viel Spaß beim Lesen und lassen Sie mich in den Kommentaren wissen, wenn ich wichtige Beiträge verpasst habe, oder indem Sie mich direkt auf LinkedIn kontaktieren!
Die vollständige Referenz zu jedem Artikel ist am Ende dieses Repositorys aufgeführt.
Betreuer – louisfb01
Fühlen Sie sich frei, mir über [email protected] alle großartigen Artikel zu senden, die ich verpasst habe, um sie diesem Repository hinzuzufügen
Markieren Sie mich auf Twitter @Whats_AI oder LinkedIn @Louis (What's AI) Bouchard, wenn Sie die Liste teilen!
Eine kuratierte Liste der neuesten Durchbrüche in der KI nach Veröffentlichungsdatum mit einer klaren Videoerklärung, einem Link zu einem ausführlicheren Artikel und Code.
2020: Ein Jahr voller erstaunlicher KI-Artikel – Ein Rückblick
Haben Sie sich jemals gefragt, wie das Meer ohne Wasser aussehen würde? Entfernen Sie diesen blaugrünen Farbton der Unterwasserbilder und erhalten Sie trotzdem die wahren Farben eines Korallenriffs? Nun, mithilfe von Computer Vision und maschinellen Lernalgorithmen konnten Forscher der Universität Haifa genau das erreichen!
Forscher des IST Austria und des MIT haben erfolgreich ein selbstfahrendes Auto trainiert, indem sie ein neues System künstlicher Intelligenz nutzten, das auf den Gehirnen winziger Tiere wie Fadenwürmer basiert. Sie erreichten dies mit nur wenigen Neuronen, die das selbstfahrende Auto steuern konnten, verglichen mit den Millionen von Neuronen, die die beliebten tiefen neuronalen Netze wie Inceptions, Resnets oder VGG benötigen. Ihr Netzwerk war in der Lage, ein Auto mithilfe von nur 75.000 Parametern vollständig zu steuern, die aus 19 Kontrollneuronen statt aus Millionen bestanden!
Diese neue Methode ist in der Lage, eine vollständige dreidimensionale Szene zu erzeugen und hat die Möglichkeit, die Beleuchtung der Szene zu bestimmen. All dies mit sehr begrenztem Rechenaufwand und erstaunlichen Ergebnissen im Vergleich zu früheren Ansätzen.
Diese 4. Version wurde kürzlich im April 2020 von Alexey Bochkovsky et al. eingeführt. im Artikel „YOLOv4: Optimale Geschwindigkeit und Genauigkeit der Objekterkennung“. Das Hauptziel dieses Algorithmus bestand darin, einen superschnellen Objektdetektor mit hoher Qualität in Bezug auf Genauigkeit zu erstellen.
Dieser neue Algorithmus verwandelt ein verschwommenes Bild in ein hochauflösendes Bild! Es kann ein 16x16-Bild mit extrem niedriger Auflösung aufnehmen und in ein hochauflösendes menschliches Gesicht mit 1080p umwandeln! Du glaubst mir nicht? Dann können Sie es wie ich machen und es in weniger als einer Minute selbst ausprobieren! Aber zuerst wollen wir sehen, wie sie das gemacht haben.
Eine gute KI, wie sie in Gmail verwendet wird, kann zusammenhängenden Text generieren und Ihren Satz vervollständigen. Dieses hier verwendet die gleichen Prinzipien, um ein Bild zu vervollständigen! Alles erfolgt in einem unbeaufsichtigten Training, bei dem keinerlei Etiketten erforderlich sind!
Mit dieser neuen Bild-zu-Bild-Übersetzungstechnik können Sie jetzt ohne Zeichenkenntnisse hochwertige Gesichtsbilder aus groben oder sogar unvollständigen Skizzen erstellen! Wenn Ihre Zeichenfähigkeiten so schlecht sind wie meine, können Sie sogar anpassen, wie stark Augen, Mund und Nase das endgültige Bild beeinflussen! Mal sehen, ob es wirklich funktioniert und wie sie es gemacht haben.
Diese KI generiert hochauflösende 3D-Rekonstruktionen von Menschen aus 2D-Bildern! Es ist nur ein einziges Bild von Ihnen erforderlich, um einen 3D-Avatar zu erstellen, der genauso aussieht wie Sie, sogar von hinten!
Der ECCV 2020 Best Paper Award geht an das Princeton-Team. Sie entwickelten ein neues durchgängig trainierbares Modell für den optischen Fluss. Ihre Methode übertrifft die Genauigkeit modernster Architekturen über mehrere Datensätze hinweg und ist viel effizienter. Sie haben den Code sogar auf ihrem Github für alle verfügbar gemacht!
Diese KI kann die fehlenden Pixel hinter einem entfernten, sich bewegenden Objekt füllen und das gesamte Video mit viel größerer Genauigkeit und weniger Unschärfe rekonstruieren als aktuelle, hochmoderne Ansätze!
Stellen Sie sich vor, Sie hätten die alten, gefalteten und sogar zerrissenen Bilder Ihrer Großmutter, als sie 18 Jahre alt war, in hoher Auflösung und ohne Artefakte. Dies wird als Restaurierung alter Fotos bezeichnet und dieser Artikel hat gerade einen völlig neuen Weg eröffnet, dieses Problem mithilfe eines Deep-Learning-Ansatzes anzugehen.
Das Mattieren von Menschen ist eine äußerst interessante Aufgabe, bei der das Ziel darin besteht, jeden Menschen auf einem Bild zu finden und den Hintergrund daraus zu entfernen. Aufgrund der Komplexität der Aufgabe ist es wirklich schwierig, die Person oder Personen mit der perfekten Kontur zu finden. In diesem Beitrag bespreche ich die besten Techniken, die im Laufe der Jahre verwendet wurden, und einen neuartigen Ansatz, der am 29. November 2020 veröffentlicht wurde. Viele Techniken nutzen grundlegende Computer-Vision-Algorithmen, um diese Aufgabe zu erfüllen, wie zum Beispiel den GrabCut-Algorithmus, der extrem schnell ist, aber nicht sehr präzise.
DeOldify ist eine Technik zum Einfärben und Wiederherstellen alter Schwarzweißbilder oder sogar Filmmaterial. Es wurde nur von einer Person, Jason Antic, entwickelt und wird immer noch aktualisiert. Mittlerweile ist es die hochmoderne Methode, Schwarz-Weiß-Bilder einzufärben, und alles ist Open Source, aber wir werden gleich darauf zurückkommen.
Markieren Sie mich auf Twitter @Whats_AI oder LinkedIn @Louis (What's AI) Bouchard, wenn Sie die Liste teilen!
[1] Akkaynak, Derya & Treibitz, Tali. (2019). Sea-Thru: Eine Methode zum Entfernen von Wasser aus Unterwasserbildern. 1682–1691. 10.1109/CVPR.2019.00178.
[2] Lechner, M., Hasani, R., Amini, A. et al. Richtlinien für neuronale Schaltkreise ermöglichen überprüfbare Autonomie. Nat Mach Intell 2, 642–652 (2020). https://doi.org/10.1038/s42256-020-00237-3
[3] PP Srinivasan, B. Deng, X. Zhang, M. Tancik, B. Mildenhall und JT Barron, „Nerv: Neural Reflectance and Visibility Fields for Relighting and View Synthesis“, in arXiv, 2020.
[4] A. Bochkovskiy, C.-Y. Wang und H.-YM Liao, Yolov4: Optimale Geschwindigkeit und Genauigkeit der Objekterkennung, 2020. arXiv:2004.10934 [cs.CV].
[5] S. Menon, A. Damian, S. Hu, N. Ravi und C. Rudin, Pulse: Self-supervised photo upsampling via latent space explore of generative models, 2020. arXiv:2003.03808 [cs.CV].
[6] M. Chen, A. Radford, R. Child, J. Wu, H. Jun, D. Luan und I. Sutskever, „Generative pretraining from pixels“, in Proceedings of the 37th International Conference on Machine Learning, HD III und A. Singh, Hrsg., ser. Proceedings of Machine Learning Research, vol. 119, Virtuell: PMLR, 13.–18. Juli 2020, S. 1691–1703. [Online].
[7] S.-Y. Chen, W. Su, L. Gao, S. 39, nein. 4, 72:1–72:16, 2020. Verfügbar:http://proceedings.mlr.press/v119/chen20s.html.
[8] S. Saito, T. Simon, J. Saragih und H. Joo, Pifuhd: Multi-level pixel-aligned implicit function for high-resolution 3d human digitalization, 2020. arXiv:2004.00452 [cs.CV].
[9] Z. Teed und J. Deng, Raft: Recurrent all-pairs field transforms for Optical Flow, 2020. arXiv:2003.12039 [cs.CV].
[10] Y. Zeng, J. Fu und H. Chao, Lernen gemeinsamer räumlich-zeitlicher Transformationen für Video-In-Painting, 2020. arXiv:2007.10247 [cs.CV].
[Bonus 1] Z. Wan, B. Zhang, D. Chen, P. Zhang, D. Chen, J. Liao und F. Wen, Old Photo Restoration via Deep Latent Space Translation, 2020. arXiv:2009.07047 [cs. Lebenslauf].
[Bonus 2] Z. Ke, K. Li, Y. Zhou, Q. Wu, X. Mao, Q. Yan und RW Lau: „Ist ein Greenscreen für Echtzeit-Porträtmattierung wirklich notwendig?“ ArXiv, vol. abs/2011.11961, 2020.
[Bonus 3] Jason Antic, Schöpfer von DeOldify, https://github.com/jantic/DeOldify