취미가 좋다

Triton Inference Server Backend 본문

Data Engineer/triton inference server

Triton Inference Server Backend

benlee73 2021. 6. 24. 17:49

https://github.com/triton-inference-server/backend/blob/main/README.md

 

Triton Inference Server Backend

triton backend 는 모델을 실행하는 implemnetation이다.

다양한 종류의 deep learning framework (pytorch, tensorflow, tensorRT, ONNX runtime...) 으로 감싸질 수도 있다.

혹은 backend는 여러 operation (image 전처리) 를 수행하는 custom C/C++ logic 이 될 수도 있다.

 

 

FAQ

  • Where can I ask general questions about Triton and Triton backends?
  • Where can I find all the backends that are available for Triton?
  • How can I develop my own Triton backend?
  • Can I add (or remove) a backend to an existing Triton installation?
  • What about backends developed using the "legacy custom backend" API.

 

 

 

 

 

 

 

 

 

'Data Engineer > triton inference server' 카테고리의 다른 글

[ Server ] build  (0) 2021.06.28
[ Server ] Model Analyzer  (0) 2021.06.28
[ Server ] Trace  (0) 2021.06.24
[ Server ] Performance Analyzer  (0) 2021.06.24
[ Server ] Metrics  (0) 2021.06.24
Comments