O desenvolvimento e a manutenção deste repositório/pacote foram encerrados. Para a última geração do LLAMA, consulte https://github.com/dropbox/llama
LLAMA é um serviço implantável que produz tráfego artificialmente para medir o desempenho da rede entre terminais.
LLAMA usa operações em nível de soquete UDP para suportar múltiplas classes de QoS. Os datagramas UDP são rápidos, eficientes e farão hash em caminhos ECMP em grandes redes para descobrir falhas e interfaces erradas. LLAMA é escrito em Python puro para manutenção.
O LLAMA eventualmente terá todas essas capacidades, mas ainda não. Por exemplo, atualmente ele não fornece funcionalidade QOS, mas enviará tráfego de teste usando hping3
ou uma biblioteca UDP integrada. Atualmente está sendo testado em Alpha no Dropbox por meio de correlação experimental.
Usando o InfluxDB e interessado em visualizar dados LLAMA em uma IU semelhante a uma matriz?
Confira https://github.com/dropbox/grallama-panel