AWS EC2 인스턴스 다른 Region 에 복제/이전

이전 처리 개념


  1. 원본 Region
    1. 실행중인 EC2 instance를 복제
    2. 복제한 instance가 실행되면 중지상태로
    3. 해당 instance의 Volume의 Snapshot 생성
    4. Snapshot 복사메뉴에서 region 선택

  2. 이전받을 Region
    1. 원본에서 복제되어온 Snapshot 으로부터 Volume 생성
    2. 원본 EC2 Instance와 같은 사양으로 Instance 생성 후 중지상태로
    3. Volume 떼어내고 1.의 Volume 붙이기
    4. Instance Start
    5. Instance Running 되면 Public DNS 주소로 접속하여 검증
반응형
블로그 이미지

조이풀 라이프

Lift is short, enjoy the life

,

아마존( Amazon ) AWS 윈도우( Window )에서 접속 - Putty , pem ppk 변환

아마존 서버 생성시 다운받은 pem 파일을 이용하여 ssh/sftp 접속하는 방법

1. putty 를 다운받습니다.

 http://www.chiark.greenend.org.uk/~sgtatham/putty/download.html

 여기에서 putty<version>-installer.exe 를 받으세요.
 혹은, putty.exe, psftp.exe, puttygen.exe, pageant.exe 를 따로 설치하셔도 됩니다.
  puttygen.exe 는 pem 파일을 putty에서 사용가능하게 변경하며
  pageant.exe 는 pem 파일을 통해 putty, psftp 가 서버에 접속 가능하게 해줍니다.

2. pem 파일 변환

 1) puttygen.exe 를 실행하면 아래와 같은 화면이 뜹니다. 상단의 Conversions / Import Key 를 선택합니다.


 2) 해당 서버에 접속하기 위한 pem파일을 선택합니다.



 3) 아래와 같이 정상적으로 로드가 된것을 확인할 수 있습니다.
     이제 하단 우측에 있는 Save private key 를 선택하고 Yes 를 선택합니다.



 4) 원하는 위치에 파일명을 설정하여 ppk 파일을 저장합니다. ppk 파일 생성 완료!!




2. Pageant.exe 를 실행하면 아래와 같이 윈도우 우측 하단에 트레이로 추가된것을 확인할 수 있습니다. 이녀석은 항상 저곳에 있어야만 합니다.


 1) 위 트레이를 더블클릭 하여 아래의 화면에서 Add Key 를 선택합니다. 혹은, 트레이 아이콘에서 오른쪽 버튼으로 Add Key 를 선택합니다.



 2) 위에서 저장한 ppk 파일을 선택해줍니다.



 3) 아래와 같이 정상적으로 추가된것을 확인할수 있습니다. 이제 해당 창을 닫습니다.



3. Putty.exe 를 실행합니다. 

 1) Host Name 에 아마존의 Public DNS ( 혹은 Elastic IP ) 를 입력하고 Open 을 합니다. ( 물론, 트레이에는 Pageant 가 떠있어야 합니다. )



 2) 최초 접속시 해당 얼럿이 뜰겁니다. Yes 를 누릅니다.




  


 3) 계정으로 root 를 입력합니다. 정상접속이 되었습니다. !!



4. Psftp.exe 를 실행합니다. ( 당연히 이놈도 Pageant 가 실행되어있어야 겠죠? )


 역시 계정에 root 를 입력하여 정상 접속되는 것을 확인할 수 있습니다.

 기념으로 이미지하나는 드래그하여 put 해봅니다.
반응형
블로그 이미지

조이풀 라이프

Lift is short, enjoy the life

,

 

AWS를 이용하기 위해서 AWS Instance를 생성하시고 SSH로 접속하여 아래 스크립트를 따라서 설치하면 됩니다.

[AWS 인스턴스 만들기]

http://yfkwon.tistory.com/5


[윈도우에서 Putty를 이용한 SSH 접속하기]

http://yfkwon.tistory.com/3


[TensorFlow 설치하기]

http://erikbern.com/2015/11/12/installing-tensorflow-on-aws/

install-tensorflow.sh                       

  # Note – this is not a bash script (some of the steps require reboot)
  # I named it .sh just so Github does correct syntax highlighting.
  #
  # This is also available as an AMI in us-east-1 (virginia): ami-cf5028a5
  #
  # The CUDA part is mostly based on this excellent blog post:
  # http://tleyden.github.io/blog/2014/10/25/cuda-6-dot-5-on-aws-gpu-instance-running-ubuntu-14-dot-04/
   
  # Install various packages
  sudo apt-get update
  sudo apt-get upgrade -y # choose “install package maintainers version”
  sudo apt-get install -y build-essential python-pip python-dev git python-numpy swig python-dev default-jdk zip zlib1g-dev
   
  # Blacklist Noveau which has some kind of conflict with the nvidia driver
  echo -e "blacklist nouveau\nblacklist lbm-nouveau\noptions nouveau modeset=0\nalias nouveau off\nalias lbm-nouveau off\n" | sudo tee /etc/modprobe.d/blacklist-nouveau.conf
  echo options nouveau modeset=0 | sudo tee -a /etc/modprobe.d/nouveau-kms.conf
  sudo update-initramfs -u
  sudo reboot # Reboot (annoying you have to do this in 2015!)
   
  # Some other annoying thing we have to do
  sudo apt-get install -y linux-image-extra-virtual
  sudo reboot # Not sure why this is needed
   
  # Install latest Linux headers
  sudo apt-get install -y linux-source linux-headers-`uname -r`
   
  # Install CUDA 7.0 (note – don't use any other version)
  wget http://developer.download.nvidia.com/compute/cuda/7_0/Prod/local_installers/cuda_7.0.28_linux.run
  chmod +x cuda_7.0.28_linux.run
  ./cuda_7.0.28_linux.run -extract=`pwd`/nvidia_installers
  cd nvidia_installers
  sudo ./NVIDIA-Linux-x86_64-346.46.run
  sudo modprobe nvidia
  sudo ./cuda-linux64-rel-7.0.28-19326674.run
  cd
   
  # Install CUDNN 6.5 (note – don't use any other version)
  # YOU NEED TO SCP THIS ONE FROM SOMEWHERE ELSE – it's not available online.
  # You need to register and get approved to get a download link. Very annoying.
  tar -xzf cudnn-6.5-linux-x64-v2.tgz
  sudo cp cudnn-6.5-linux-x64-v2/libcudnn* /usr/local/cuda/lib64
  sudo cp cudnn-6.5-linux-x64-v2/cudnn.h /usr/local/cuda/include/
   
  # At this point the root mount is getting a bit full
  # I had a lot of issues where the disk would fill up and then Bazel would end up in this weird state complaining about random things
  # Make sure you don't run out of disk space when building Tensorflow!
  sudo mkdir /mnt/tmp
  sudo chmod 777 /mnt/tmp
  sudo rm -rf /tmp
  sudo ln -s /mnt/tmp /tmp
  # Note that /mnt is not saved when building an AMI, so don't put anything crucial on it
   
  # Install Bazel
  cd /mnt/tmp
  git clone https://github.com/bazelbuild/bazel.git
  cd bazel
  git checkout tags/0.1.0
  ./compile.sh
  sudo cp output/bazel /usr/bin
   
  # Install TensorFlow
  cd /mnt/tmp
  export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda/lib64"
  export CUDA_HOME=/usr/local/cuda
  git clone --recurse-submodules https://github.com/tensorflow/tensorflow
  cd tensorflow
  # Patch to support older K520 devices on AWS
  # wget "https://gist.githubusercontent.com/infojunkie/cb6d1a4e8bf674c6e38e/raw/5e01e5b2b1f7afd3def83810f8373fbcf6e47e02/cuda_30.patch"
  # git apply cuda_30.patch
  # According to https://github.com/tensorflow/tensorflow/issues/25#issuecomment-156234658 this patch is no longer needed
  # Instead, you need to run ./configure like below (not tested yet)
  TF_UNOFFICIAL_SETTING=1 ./configure
  bazel build -c opt --config=cuda //tensorflow/cc:tutorials_example_trainer
   
  # Build Python package
  # Note: you have to specify --config=cuda here - this is not mentioned in the official docs
  # https://github.com/tensorflow/tensorflow/issues/25#issuecomment-156173717
  bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package
  bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg
  sudo pip install /tmp/tensorflow_pkg/tensorflow-0.5.0-cp27-none-linux_x86_64.whl
   
  # Test it!
  cd tensorflow/models/image/cifar10/
  python cifar10_multi_gpu_train.py
   
  # On a g2.2xlarge: step 100, loss = 4.50 (325.2 examples/sec; 0.394 sec/batch)
  # On a g2.8xlarge: step 100, loss = 4.49 (337.9 examples/sec; 0.379 sec/batch)
  # doesn't seem like it is able to use the 4 GPU cards unfortunately :(
반응형
블로그 이미지

조이풀 라이프

Lift is short, enjoy the life

,

 

구글 광고 플랫폼을 이용한 수익 창출하기

 

구글 애드센스 광고를 이용하기 위해 아래의 링크로 가서 가입해야 한다.

 

https://www.google.co.kr/adsense/start/#

 

애드센스 가입하시면 아래의 링크를 설명에 따라 광고 코드를 블로그나 홈페이지에 삽입하면 됩니다.

 

https://support.google.com/adsense/answer/181947?hl=ko&ref_topic=28893

 

 

반응형

'기타' 카테고리의 다른 글

구글 애드센스 입금 계좌 연결하기  (0) 2016.05.10
블로그 이미지

조이풀 라이프

Lift is short, enjoy the life

,