일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Github
- aws
- ML
- 티스토리챌린지
- ai캠프
- team_project
- seaborn
- ai_캠프
- pandas
- 오블완
- ai 캠프
- finpilot
- sLLM
- lightsail
- EC2
- 정치기 필기
- django
- 머신러닝
- mysql
- 로컬 런타임
- Python
- mifare
- Jupyterlab
- chromeextention
- ollama
- conda
- djangorestframework
- streamlit
- 파이썬
- pytorch
- Today
- Total
greatsangho의 이야기
도커를 활용한 colab 로컬 런타임 연결 본문
충분한 컴퓨터 자원과 로컬 파일을 활용하면서 Gemini의 도움을 받고 싶으면 코랩 도커 런타임 이미지를 사용하면 된다.
https://research.google.com/colaboratory/local-runtimes.html
Google Colab
Colaboratory 로컬 런타임 Colab을 사용하면 로컬 런타임에 연결할 수 있습니다. 이렇게 하면 로컬 하드웨어에서 코드를 실행할 수 있습니다. 보안 고려사항 실행하기 전에 신뢰하는 사람이 만든 노
research.google.com
Docker 이미지는 linux/amd64 플랫폼용으로 제공된다고 한다.
먼저 Doker를 설치한다.
https://docs.docker.com/get-started/get-docker/
Get Docker
Download and install Docker on the platform of your choice, including Mac, Linux, or Windows.
docs.docker.com
아시아 지역 기준으로 다음 코드를 Powershell에서 실행해준다.
CPU 기준으로
docker run -p 127.0.0.1:9000:8080 asia-docker.pkg.dev/colab-images/public/runtime
GPU 기준으로
docker run --gpus=all -p 127.0.0.1:9000:8080 us-docker.pkg.dev/colab-images/public/runtime
를 실행한다. 이때 GPU는 NVIDIA 드라이버 및 Toolkit이 설치되어 있어야 한다.
도커 엔진이 켜진 상태에서 해당 코드를 실행하면 자동으로 container까지 생성되어 실행된다.
도커가 실행되면 로그에 다음과 같이 토큰이 포함된 값이 보이는데 이를 코랩에서 로컬 런타임에 연결에 들어가서 해당 주소를 연결해준다.
연결을 진행하면 쉽게 로컬 런타임에 연결되는 것을 확인할 수 있다.
로컬 자원과 Gemini의 도움을 받으며 코딩을 하고 싶을 때 유용할 듯 싶다.
'프로그래밍 > SK AI 캠프' 카테고리의 다른 글
캠프35~36일차 - 2차 팀프로젝트 (0) | 2024.10.18 |
---|---|
WSL2 conda 환경에 Tensorflow2와 CUDA 연결하여 설치하기 (0) | 2024.10.13 |
SK AI 캠프 7주차 후기 (2) | 2024.10.07 |
Conda 환경에서 Nvidia GPU 사용하여 PyTorch 구동하기 (6) | 2024.09.29 |
캠프 26일차 - 딥러닝 (텐서플로, 케라스, 다층 퍼셉트론) (0) | 2024.09.28 |