취미가 좋다

[ Server ] Inference protocols 본문

Data Engineer/triton inference server

[ Server ] Inference protocols

benlee73 2021. 6. 28. 21:00

https://github.com/triton-inference-server/server/blob/main/docs/inference_protocols.md

 

Inference Protocols and APIs

clients 는 HTTP/REST or GRPC 프로토콜 이나 C API 를 사용하여 triton과 통신할 수 있다.

 

HTTP/REST and GRPC Protocols

triton은 KFServing 프로젝트에서 제안한 standard inference protocos 를 기반으로, HTTP/REST 와 GRPC endpoints 를 모두 제공한다.

To fully enable all capabilities Triton also implements a number HTTP/REST and GRPC extensions. to the KFServing inference protocol.

 

HTTP/REST and GRPC 프로토콜은 서버와 모델의 health, metadata, statistics 를 확인하기 위한 endpoints 를 제공한다.

추가적인 endpoints 는 모델 loading, unloading 을 지원한다.

 

C API

triton inference server 는 triton이 C/C++ 어플리케이션과 연결될 수 있도록 backwards-compatible C API 를 제공한다.

'Data Engineer > triton inference server' 카테고리의 다른 글

[ Server ] Model Repository  (0) 2021.06.29
[ Server ] Quickstart  (0) 2021.06.29
[ Server ] build  (0) 2021.06.28
[ Server ] Model Analyzer  (0) 2021.06.28
Triton Inference Server Backend  (0) 2021.06.24
Comments