본문 바로가기

mingsDB

[Docker] TensorRT 환경 구축

728x90

이전 글 을 통해 Docker를 설치하였으니 이제 환경을 구축해보겠습니다.

 

저는 nvidia docker을 사용하기 위해 toolkit을 다운 받아야합니다.
링크: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html

 

Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit

Note These instructions should work for any Debian-derived distribution.

docs.nvidia.com

 

1. repository 설정  (NVIDIA의 공식 저장소에서 패키지를 안전하게 다운로드 하기 위함)

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

 

2. 패키지 리스트 업데이트

sudo apt-get update

 

3. NVIDIA Container Toolkit 다운로드

sudo apt-get install -y nvidia-container-toolkit

 

4. docker hub에서 원하는 pytorch 버전의 tensorRT docker image 가져오기 (데스크톱에서 사용)

sudo docker pull nvcr.io/nvidia/tensorrt:25.02-py3


4.1 만약 Jetson과 같이 내장 GPU를 사용하는 경우 뒤에 igpu가 붙은 것을 사용하는게 좋다고 하네요 (직접 사용해본적 X)

docker pull nvcr.io/nvidia/tensorrt:25.02-py3-igpu

 

5. 다운받은 image를 사용하여 docker container 실행

docker run --gpus all -it --rm \
  -v [docker와 연결하고 싶은 local 폴더 path]:/workspace/[local 폴더를 저장할 docker 폴더] \
  nvcr.io/nvidia/tensorrt:25.02-py3
  • 만약 연결하고 싶은 local 폴더의 path가 home/gogo 이고 저장할 docker 폴더가 hi 라면 
    - v home/gogo:workspace/hi 로 하면 

위 처럼 hi 폴더가 생기며 해당 폴더 안에 local 폴더와 연동된 파일들이 있습니다. 

  • --gpus all: 모든 gpu 사용
  • -it: 터미널 사용
  • --rm: 해당 container 종료 시 container 파일 삭제