TX2 끄적이기
tx2
- Embedded Board
- Pascal Architecture
- 256 CUDA core
- 8GB RAM
- 32GB Storage
- 1GB Ethernet
- Up to 6 Camera
Product composition
- NVIDIA Jetson TX2 Developer Board
- AC Adapter
- USB Micro-B to USB A Cable
- USB Micro-B to Female USB A Cable
- Rubber Feet (4)
- Quick Start Guide
- Safety Booklet
- Antennas to connect to Wi-Fi enabled devices (2)
tx2 실행하기
- Jetson tx2 구성품
- 모니터
- Ubuntu 16.04가 설치되어 있는 Computer (이게 귀찮은 작업..), 18.04도 된다고 하는 것 같은데 일단 제일 많이 사용했던 16.04로 진행합니다.
설치하기
- 구성품과 모니터를 모두 연결한다.
- Power Btn(빨간버튼)을 누른다.
- 설치한다.
1
2
3
4
5
cd /home/nvidia/NVIDIA-INSTALLER/
sudo ./installer.sh
passward:nvidia
sudo reboot
Jetpack 설치하기
- CUDA, cudnn 설치를 위해 Jetpack으로 진행하겠습니다.
- 먼저 Computer에 Jetpack 4.4을 설치했습니다.
- 설치 후 다른 건 그대로 내비둔채로 Host Hardware를 체크 해제 하고 tx2로 변경한 후 continue를 클릭합니다.
- 설치가 진행되면서 창이 하나 나옵니다.
- Manual Setup으로 변경합니다.
- 구성품 중에서 USB to 5pin 케이블이 존재할 텐데 5pin은 tx2에 usb는 Computer에 연결합니다.
- tx2의 전원을 끈 상태로 power button 옆에 recovery button을 누른채로 power button을 누릅니다.
- 연결이 잘되었다면 Computer에
lsusb
명령어를 치면NVIDIA Corp.
라는 항목이 추가된 것을 확인할 수 있습니다. - 확인 후에 flush를 클릭합니다.
- 클릭 후 설치를 진행하다가 잠시 창이 하나 더 나오는데 그때 HDMI를 tx2에 연결합니다.
- 그러면 system configuration 창이 나옵니다.
- 설정을 완료하면 Nvidia 화면이 나옵니다.
- 이때 Computer와 tx2를 동일한 네트워크에 연결합니다.
- 그리고 tx2에
ifconfig
명령어로 ip를 확인한 뒤 아까 Computer에 나온 창에 ip를 입력하고 install 합니다. - 리부팅 후
nvcc -version
이 잘나오면 성공입니다! - 이제 즐깁시다 ^^
Pytorch 설치하기
Tip :
~/jetson_clocks.sh
를 실행하면 최고성능을 가질 수 있다고 합니다.- Ubuntu 18.04
- python3
- jetson tx2
- jetpack 4.4 +
만약 jetpack version이 다르다면 여기에서 맞는 버전을 찾아서 다운로드 합시다.
- 저는 4.4 라서 Pytorch 1.6.0 version을 다운로드 받으려고 합니다.
- 저는 Pytorch만 사용할 것이라 그냥 로컬에 했지만 가상환경 만들어서 하시는게 좋습니다.
설치하기
1
2
3
4
5
6
7
8
9
10
11
sudo apt-get update
sudo apt-get upgrade
sudo apt-get install python3-pip
sudo apt-get install libopenblas-base libopenblas-dev libjpeg-dev zlib1g-dev libhdf5-dev
pip3 install -U pip
pip3 install -U setuptools
wget https://nvidia.box.com/shared/static/9eptse6jyly1ggt9axbja2yrmj6pbarc.whl -O torch-1.6.0-cp36-cp36m-linux_aarch64.whl
pip3 install torch-1.6.0-cp36-cp36m-linux_aarch64.whl
테스트
1
2
3
4
5
6
7
8
9
# Verify CUDA (from python interactive terminal)
import torch
print(torch.cuda.is_available())
a = torch.cuda.FloatTensor(2).zero_()
print(a)
b = torch.randn(2).cuda()
print(b)
c = a + b
print(c)
This post is licensed under CC BY 4.0 by the author.