Einführung : Ein leichtes RPC-Framework basierend auf Connect UDP, einem benutzerdefinierten Netzwerkprotokoll (einfaches Anforderungs-Antwort-Protokoll) und einem Reactor-Netzwerkmodell (eine Schleife pro Thread + Thread-Pool)!
C++ 17
Standardspeicherpool千级访问
in einem einzelnen Slave-Reaktor und vier Worker-Threads!内网穿透
bei nicht öffentlichen IPs verwendet!留言
Nachricht.Aktuelle Nutzung :
# 需要提前安装zlib库
# 本人开发环境 GCC 11.3 CMake 3.25 clion ubuntu 22.04
git clone [email protected]:sorise/muse-rpc.git
cd muse-rpc
cmake -S . -B build
cmake --build
cd build
./muse #启动
Architekturdiagramm :
Der grundlegende Konfigurationsinhalt ist wie folgt
int main () {
// 启动配置
// 4 设置 线程池最小线程数
// 4 设置 线程池最大线程数
// 4096 线程池任务缓存队列长度
// 3000ms; 动态线程空闲时间 3 秒
// 日志目录
// 是否将日志打印到控制台
muse::rpc::Disposition::Server_Configure ( 4 , 4 , 4096 , 3000ms, " /home/remix/log " , true );
//绑定方法的例子
Normal normal ( 10 , " remix " ); //用户自定义类
// 同步,意味着这个方法一次只能由一个线程执行,不能多个线程同时执行这个方法
muse_bind_sync ( " normal " , &Normal::addValue, & normal ); //绑定成员函数
muse_bind_async ( " test_fun1 " , test_fun1); // test_fun1、test_fun2 是函数指针
muse_bind_async ( " test_fun2 " , test_fun2);
// 开一个线程启动反应堆,等待请求
// 绑定端口 15000, 启动两个从反应堆,每个反应堆最多维持 1500虚链接
// ReactorRuntimeThread::Asynchronous 指定主反应堆新开一个线程运行,而不是阻塞当前线程
Reactor reactor ( 15000 , 2 , 1500 , ReactorRuntimeThread::Asynchronous);
try {
//开始运行
reactor. start ();
} catch ( const ReactorException &ex){
SPDLOG_ERROR ( " Main-Reactor start failed! " );
}
/*
* 当前线程的其他任务
* */
//程序结束
spdlog::default_logger ()-> flush (); //刷新日志
}
Nach dem Start:
Verwenden Sie die Makros muse_bind_sync und muse_bind_async . Ersteres ruft SynchronousRegistry auf und letzteres ruft Registry auf. Der Prototyp sieht wie folgt aus.
# include < iostream >
# include " rpc/rpc.hpp "
using namespace muse ::rpc ;
using namespace muse ::pool ;
using namespace std ::chrono_literals ;
//绑定方法的例子
Normal normal ( 10 , " remix " );
// 绑定类的成员函数、使用 只同步方法 绑定
muse_bind_sync ( " normal " , &Normal::addValue, & normal );
// 绑定函数指针
muse_bind_async ( " test_fun1 " , test_fun1);
// 绑定 lambda 表达式
muse_bind_async ( " lambda test " , []( int val)->int{
printf ( " why call me n " );
return 10 + val;
});
Registrierungsmethoden auf der Serverseite erfordern die Verwendung von Registry- und SynchronousRegistry-Objekten.
Erklärung von SynchronousRegistry: value ist ein Feld, das verwendet wird, um aufzuzeichnen, wie viele Clients die addValue-Methode angefordert haben und über die Registrierung registriert sind. Der Wert von value ist möglicherweise nicht 1000, da der Zugriff auf value nicht threadsicher ist Mit SynchronousRegistry registriert, muss es 1000 sein.
class Counter {
public:
Counter ():value( 0 ){}
void addValue (){
this -> value ++;
}
private:
long value;
};
Registrierungsmethode : Die Definitionen der beiden Makros lauten wie folgt
# define muse_bind_async (...)
Singleton<Registry>()-> Bind (__VA_ARGS__);
//同步方法,一次只能一个线程执行此方法
# define muse_bind_sync (...)
Singleton<SynchronousRegistry>()-> Bind (__VA_ARGS__);
Der Client verwendet das Client-Objekt, das ein Outcome<R> -Objekt zurückgibt, und die isOK-Methode zeigt an, ob die Rückgabe erfolgreich ist! Wenn false zurückgegeben wird, gibt sein Mitglied ProtocolReason an, ob eine Netzwerkanomalie vorliegt, und das Antwortmitglied gibt an, ob es sich um einen RPC-Anforderungs- und Antwortfehler handelt.
# include " rpc/rpc.hpp "
# include " rpc/client/client.hpp "
using namespace muse ::rpc ;
using namespace muse ::timer ;
using namespace std ::chrono_literals ;
int main{
// //启动客户端配置
muse::rpc::Disposition::Client_Configure ();
// MemoryPoolSingleton 返回一个 std::shared_ptr<std::pmr::synchronized_pool_resource>
//你可以自己定一个内存池
//传入 服务器地址和服务端端口号、一个C++ 17 标准内存池
Client remix ( " 127.0.0.1 " , 15000 , MemoryPoolSingleton ());
//调用远程方法
Outcome<std::vector< double >> result = remix. call <std::vector< double >>( " test_fun2 " ,scores);
std::cout << result. value . size () << std::endl;
//调用 无参无返回值方法
Outcome< void > result =remix. call < void >( " normal " );
if (result. isOK ()){
std::printf ( " success n " );
} else {
std::printf ( " failed n " );
}
//调用
auto ri = remix. call < int >( " test_fun1 " , 590 );
std::cout << ri. value << std::endl; // 600
};
Fehlerbehandlung: Unter normalen Umständen müssen Sie nur darauf achten, ob die isOk-Methode wahr ist. Wenn Sie die Details des Fehlers kennen müssen, können Sie die beiden Aufzählungsobjekte FailureReason und RpcFailureReason verwenden bzw. RPC-Anfragefehler.
auto resp = remix.call< int >( " test_fun1 " , 590 );
if (resp.isOK()){
//调用成功
std::cout << " request success n " << std::endl; // 600
std::cout << ri. value << std::endl; // 600
} else {
//调用失败
if (resp. protocolReason == FailureReason::OK){
//错误原因是RPC错误
std::printf ( " rpc error n " );
std::cout << resp. response . getReason () << std::endl;
//返回 int 值对应 枚举 RpcFailureReason
} else {
//错误原因是网络通信过程中的错误
std::printf ( " internet error n " );
std::cout << ( short )resp. protocolReason << std::endl; //错误原因
}
}
// resp.protocolReason() 返回 枚举FailureReason
enum class FailureReason : short {
OK, //没有失败
TheServerResourcesExhausted, //服务器资源耗尽,请勿链接
NetworkTimeout, //网络连接超时
TheRunningLogicOfTheServerIncorrect, //服务器运行逻辑错误,返回的报文并非所需
};
// resp.response.getReason() 返回值 是 int
enum class RpcFailureReason : int {
Success = 0 , // 成功
ParameterError = 1 , // 参数错误,
MethodNotExist = 2 , // 指定方法不存在
ClientInnerException = 3 , // 客户端内部异常,请求还没有到服务器
ServerInnerException = 4 , // 服务器内部异常,请求到服务器了,但是处理过程有异常
MethodExecutionError = 5 , // 方法执行错误
UnexpectedReturnValue = 6 , //返回值非预期
};
Nicht blockierende Anforderungen bedeuten, dass Sie nur die Anforderungsaufgabe einrichten und eine Rückruffunktion registrieren müssen, um die Anforderungsergebnisse zu verarbeiten. Der Sendevorgang wird vom Senderobjekt abgewickelt, sodass der aktuelle Thread nicht aus Netzwerkgründen blockiert wird Die Verarbeitung erfolgt auf Basis von Rückrufen und kann zur Bearbeitung einer großen Anzahl von Anfragen verwendet werden. Hier benötigen wir ein Senderobjekt und die Sendeaufgabe wird über SenderEvent festgelegt.
Hinweis : Die Anzahl der gleichzeitig von einem einzelnen Sender gesendeten Aufgaben sollte weniger als 100 betragen. Wenn die Anzahl der gesendeten Anforderungsaufgaben 100 überschreitet, muss das Timeout erhöht werden. Sie können die folgende Schnittstelle aufrufen, um die Betriebszeit festzulegen.
void test_v (){
//启动客户端配置
muse::rpc::Disposition::Client_Configure ();
Transmitter transmitter ( 14500 );
// transmitter.set_request_timeout(1500); //设置请求阶段的等待超时时间
// transmitter.set_response_timeout(2000); //设置响应阶段的等待超时时间
//测试参数
std::vector< double > score = {
100.526 , 95.84 , 75.86 , 99.515 , 6315.484 , 944.5 , 98.2 , 99898.26 ,
9645.54 , 484.1456 , 8974.4654 , 4894.156 , 89 , 12 , 0.56 , 95.56 , 41
};
std::string name {
" asdasd54986198456h487s1as8d7as5d1w877y98j34512g98ad "
" sf3488as31c98aasdasd54986198sdasdasd456h487s1as8d7a "
" s5d1w877y98j34512g98ad "
};
for ( int i = 0 ; i < 1000 ; ++i) {
TransmitterEvent event ( " 127.0.0.1 " , 15000 ); //指定远程IP 、Port
event. call < int >( " read_str " , name,score); //指定方法
event. set_callBack ([](Outcome< int > t){ //设置回调
if (t. isOK ()){
printf ( " OK lambda %d n " , t. value );
} else {
printf ( " fail lambda n " );
}
});
transmitter. send ( std::move (event));
}
//异步启动发射器,将会新开一个线程持续发送
transmitter. start (TransmitterThreadType::Asynchronous);
//停止发射器,这是个阻塞方法,如果发送器还有任务没有处理完,将会等待
transmitter. stop ();
//如果想直接停止可以使用 transmitter.stop_immediately()方法
}
Unterstützt die Konfiguration der Anzahl der Kernthreads, der maximalen Anzahl von Threads, der Länge der Task-Cache-Warteschlange und der dynamischen Thread-Leerlaufzeit!
ThreadPoolSetting::MinThreadCount = 4 ; //设置 核心线程数
ThreadPoolSetting::MaxThreadCount = 4 ; //设置 核心线程数
ThreadPoolSetting::TaskQueueLength = 4096 ; //设置 任务缓存队列长度
ThreadPoolSetting::DynamicThreadVacantMillisecond = 3000ms; //动态线程空闲时间
Einführung : Das Simple Request Response Protocol (SR2P-Protokoll) ist ein zweiphasiges Protokoll, das speziell für RPC angepasst wurde. Es ist in zwei Phasen unterteilt: Anforderung und Antwort ohne Verbindungsaufbau.
Die Protokollfelder sind wie folgt: Der Protokollheader ist 26 Bytes groß, die Feldbytereihenfolge ist Big Endian und der Datenteil ist Little Endian. Aufgrund von MTU-Einschränkungen beträgt die Netzwerkstandard-MTU 576 und der Datenteil beträgt bis zu 522 Bytes. Weitere Informationen finden Sie unter Protocol.pdf.
11110000
, ein Byte.Das SR2P-Protokoll bestimmt, wie viele Datagramme jedes Mal generiert werden, basierend auf der Menge der generierten Daten. Im Folgenden werden zwei Datagramme gleichzeitig als Beispiel verwendet. Das Anforderungsflussdiagramm unter grundsätzlich normalen Umständen:
Einzelheiten zum Umgang mit anderen Situationen finden Sie im Dokument Protocol.pdf