Le développement et la maintenance de ce dépôt/paquet sont terminés. Pour la dernière génération de LAMA, voir https://github.com/dropbox/llama
LLAMA est un service déployable qui produit artificiellement du trafic pour mesurer les performances du réseau entre les points de terminaison.
LLLAMA utilise des opérations au niveau du socket UDP pour prendre en charge plusieurs classes QoS. Les datagrammes UDP sont rapides, efficaces et hachent les chemins ECMP dans les grands réseaux pour découvrir les pannes et les interfaces erronées. LLAMA est écrit en Python pur pour des raisons de maintenabilité.
LLAMA aura éventuellement toutes ces capacités, mais pas encore. Par exemple, il ne fournit actuellement pas de fonctionnalité QOS, mais enverra du trafic de test à l'aide hping3
ou d'une bibliothèque UDP intégrée. Il est actuellement testé en Alpha chez Dropbox via une corrélation expérimentale.
Vous utilisez InfluxDB et vous souhaitez visualiser les données LAMA dans une interface utilisateur de type matricielle ?
Découvrez https://github.com/dropbox/grallama-panel