tensorflow gpu 사용 예제

Posted on

다시 학습된 Inception v3 모델 사용에 대한 자세한 내용은 자습서 링크를 참조하십시오. 구성 명령을 호출한 tensorflow 하위 디렉터리 이외의 시스템 디렉토리로 디렉터리(cd)를 변경합니다. $ TF로 텐서 플로우를 가져 오기 $ 안녕하세요 = tf.constant (`안녕하세요, 텐서 플로우!`) – sess = TF. 세션 () $ 인쇄 (sess.run (안녕하세요)) 당신은 GPU (내 경우 GTX 1080)가 CPU (인텔 i7)보다 훨씬 빠르다는 것을 볼 수 있습니다. 역전파는 신경망을 훈련할 때 오늘날 거의 독점적으로 사용되며, 여러 매트릭스 곱셈(역방향 및 전진 패스)으로 언급될 수 있습니다. 따라서 GPU:s를 사용하는 것은 딥 러닝 모델을 신속하게 교육하는 데 매우 중요합니다. classify_image.py 프로그램을 처음 실행할 때 tensorflow.org 에서 훈련된 Inception-v3 모델을 다운로드합니다. 하드 디스크에서 사용 가능한 여유 공간이 약 200M 필요합니다. 위의 명령은 팬더 곰의 제공 된 이미지를 분류합니다 (/tmp /imagenet/cropped_panda.jpg에서 발견) 모델의 성공적인 실행은 다음과 같은 결과를 반환합니다 : 다음, 구글의 Inception v3을 다시 방문하고 더 깊은 사용에 참여하자 경우.

Inception v3는 이미지 분류를 위해 설계된 최첨단 컨볼루션 네트워크입니다. 이 모델을 처음부터 교육하는 것은 매우 집중적이며 며칠에서 최대 몇 주까지의 교육 시간이 걸릴 수 있습니다. 다른 방법은 미리 학습된 모델을 다운로드하고 다른 데이터 집합에서 다시 학습하는 것입니다. 꽃 데이터 집합을 사용하여 이 작업을 수행하는 방법을 연습합니다. 교육을 마친 후 cifar10_eval.py 스크립트를 사용하여 학습된 모델이 얼마나 잘 수행되는지 평가할 수 있습니다. 상단 예측이 이미지의 실제 레이블과 일치하는 빈도 :1에서 정밀도를 계산합니다. 구체적인 예를 살펴보겠습니다. 아래 코드는 명령줄에 주어진 크기가 있는 임의의 행렬을 만듭니다. 명령줄 옵션을 사용하여 CPU 또는 GPU에서 코드를 실행할 수 있습니다. GPU는 컴퓨터의 나머지 부분에 직접 액세스할 수 없습니다(물론 디스플레이제외).

이 때문에 GPU에서 명령을 실행 하는 경우 먼저 GPU에 모든 데이터를 복사 해야 합니다., 다음 작업을 수행 하 고 다음 컴퓨터의 기본 메모리에 다시 결과 복사. TensorFlow는 이 것을 후드 아래에서 처리하므로 코드는 간단하지만 작업을 수행해야 합니다. 우리는 우분투 서버를 사용 하 여 16.04 LTS (HVM) OS로, 하지만 프로세스는 모든 64 비트 리눅스 배포판에 유사 해야. $ 파이썬 텐서 플로우 / 예 / 이미지_재교육 / retrain.py –image_dir ~ / flower_photos 그래서, 기계 학습 작업에 대한 GPU를 사용하는 하나의 접근 방식은 어떻게? 이 게시물에서는 GPU 지원 AWS 인스턴스의 설정을 살펴보고 TensorFlow에서 신경망을 학습합니다. per_process_gpu_memory_fraction, 두 번째 선택이며 사용 중각 GPU에 대해 총 메모리 세그먼트를 할당해야 한다고 결정합니다.