Die Entscheidung, welche Optimierungstechnik zur Lösung eines bestimmten Optimierungsproblems verwendet werden soll, ist eine wichtige und schwierige Aufgabe, mit der sich die Optimierung seit Jahrzehnten konfrontiert sieht. Das obige Problem ist als Algorithm Selection Problem (ASP) bekannt. Viele Forscher haben versucht, das ASP für eine Vielzahl von Problemen zu lösen. Bei den in früheren Arbeiten betrachteten Optimierungstechniken handelte es sich hauptsächlich um Optimierungstechniken, die schnell ausgeführt werden können. Allerdings erhöht die Berücksichtigung ausgefeilterer Optimierungsansätze zur Lösung des ASP, wie etwa evolutionäre Algorithmen, den damit verbundenen Rechenaufwand drastisch. Wir sind daran interessiert, das ASP zu lösen, indem wir verschiedene Konfigurationen eines genetischen Algorithmus (GA) betrachten, der auf das bekannte NP-harte 0/1-Knapsack-Problem (KNP) angewendet wird. Das Obige beinhaltet die Ausführung einer erheblichen Anzahl von Konfigurationen des genannten GA, um deren Leistung zu bewerten, wenn sie auf eine breite Palette von Instanzen mit unterschiedlichen Merkmalen des KNP angewendet werden, was eine rechenintensive Aufgabe darstellt. Daher besteht das Hauptziel der aktuellen Arbeit darin, als ersten Schritt zur Lösung des ASP eine effiziente parallele GA bereitzustellen, die in der Lage ist, in kurzer Zeit wettbewerbsfähige Ergebnisse im Hinblick auf den optimalen Zielwert zu erzielen. Berechnungsergebnisse zeigen, dass unser Ansatz effizient skalierbar ist und die durchschnittliche Zeit für die Lösung von KNP-Instanzen erheblich reduziert.