Разработка и обслуживание этого репозитория/пакета завершены. Информацию о последнем поколении LLAMA см. на https://github.com/dropbox/llama.
LLAMA — это развертываемый сервис, который искусственно генерирует трафик для измерения производительности сети между конечными точками.
LLAMA использует операции на уровне сокетов UDP для поддержки нескольких классов QoS. Датаграммы UDP быстры, эффективны и хешируют пути ECMP в крупных сетях для выявления сбоев и ошибочных интерфейсов. LLAMA написана на чистом Python для удобства сопровождения.
LLAMA в конечном итоге будет обладать всеми этими возможностями, но не сейчас. Например, там он в настоящее время не обеспечивает функциональность QOS, но будет отправлять тестовый трафик с использованием hping3
или встроенной библиотеки UDP. В настоящее время он тестируется в альфа-версии в Dropbox посредством экспериментальной корреляции.
Используете InfluxDB и заинтересованы в визуализации данных LLAMA в матричном пользовательском интерфейсе?
Проверьте https://github.com/dropbox/grallama-panel.