Коллекция наиболее часто используемых алгоритмов оптимизации для науки о данных и машинного обучения
Этот репозиторий создается и принадлежит: https://github.com/muradmustafayev-03
Руководство по содействию: https://github.com/muradmustafayev-03/optimisation-algorithms/blob/main/contributing.md
Чтобы сообщить о любых вопросах: https://github.com/muradmustafayev-03/optimisation-algorithms/issues
Чтобы установить пакет в качестве использования библиотеки:
PIP установить оптимизацию-альгоритмы
Затем импортировать:
Импорт оптимизации_алгоритмов
В этом проекте я стараюсь собрать как можно больше полезных алгоритмов оптимизации и писать их простым и многоразовым образом. Идея состоит в том, чтобы написать все эти алгоритмы в Python, фундаментальным, но простым в использовании, причем Numpy является единственной используемой внешней библиотекой. В настоящее время проект находится на ранних стадиях разработки, но можно уже попытаться реализовать его в своих собственных проектах. И наверняка, вы всегда можете внести свой вклад или внести какие -либо предложения. Любая обратная связь ценится.
Для получения дополнительной информации: https://en.wikipedia.org/wiki/mathematic_optimization
Алгоритм оптимизации является алгоритмом, который используется для поиска входных значений глобальных минимумов или реже глобальных максимумов функции.
В этом проекте все алгоритмы ищут глобальные минимумы данной функции. Однако, если вы хотите найти глобальные максимумы функции, вы можете передать отрицание вашей функции: -f (x) , вместо f (x) , имея, что ее мимима будет максимумом вашей функции.
Алгоритмы оптимизации широко используются в машинном обучении , математике и ряде других прикладных наук.
Существует несколько видов алгоритмов оптимизации , поэтому вот краткое описание, используемых в проекте:
Алгоритмы TESE начинаются с случайной или указанной точки, и шаг за шагом перемещайте Торвардс ближайшие минимумы. Они часто требуют частичного производного или градиента функции, что требует дифференцировки функции. Эти алгоритмы просты и хорошо работают для функций, похожих на чаши , то, если есть Mor, чем один минимум по функции, он может запастись на местных минимумах , инвестиция в поисках глобального .
Эти алгоритмы начинаются с набора случайных решений, а затем конкурентно выбрали лучшие решения из набора и, основываясь на них, генерируют новый набор лучших решений, что развивает каждую итерацию. Эти алгоритмы не запаслись на локальных минимумах , но напрямую находят глобальный , поэтому их можно использовать для множества функций-локальных минимумов .
Контрольные функции используются для проверки алгоритмов оптимизации , однако их можно использовать сами. В этом проекте используется несколько эталонных функций , и они разделены на несколько типов в зависимости от их формы.
Для получения дополнительной информации и математического определения функций см.: Https://www.sfu.ca/~ssurjano/optimization.html