mingsDB
[Docker] TensorRT 환경 구축
kmings
2025. 3. 24. 15:52
728x90
이전 글 을 통해 Docker를 설치하였으니 이제 환경을 구축해보겠습니다.
저는 nvidia docker을 사용하기 위해 toolkit을 다운 받아야합니다.
링크: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html
Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit
Note These instructions should work for any Debian-derived distribution.
docs.nvidia.com
1. repository 설정 (NVIDIA의 공식 저장소에서 패키지를 안전하게 다운로드 하기 위함)
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
2. 패키지 리스트 업데이트
sudo apt-get update
3. NVIDIA Container Toolkit 다운로드
sudo apt-get install -y nvidia-container-toolkit
4. docker hub에서 원하는 pytorch 버전의 tensorRT docker image 가져오기 (데스크톱에서 사용)
sudo docker pull nvcr.io/nvidia/tensorrt:25.02-py3
4.1 만약 Jetson과 같이 내장 GPU를 사용하는 경우 뒤에 igpu가 붙은 것을 사용하는게 좋다고 하네요 (직접 사용해본적 X)
docker pull nvcr.io/nvidia/tensorrt:25.02-py3-igpu
5. 다운받은 image를 사용하여 docker container 실행
docker run --gpus all -it --rm \
-v [docker와 연결하고 싶은 local 폴더 path]:/workspace/[local 폴더를 저장할 docker 폴더] \
nvcr.io/nvidia/tensorrt:25.02-py3
- 만약 연결하고 싶은 local 폴더의 path가 home/gogo 이고 저장할 docker 폴더가 hi 라면
- v home/gogo:workspace/hi 로 하면
위 처럼 hi 폴더가 생기며 해당 폴더 안에 local 폴더와 연동된 파일들이 있습니다.
- --gpus all: 모든 gpu 사용
- -it: 터미널 사용
- --rm: 해당 container 종료 시 container 파일 삭제