화이트 샌드박스

화이트 샌드박스

  • 분류 전체보기 (20) N
    • 기획 및 분석 (1)
    • AI 활용 (11) N
    • 데이터과학 (2)
    • 생활속 프로젝트 (0)
    • 개발환경구축 (5) N
    • 이거좋아 (1)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

화이트 샌드박스

컨텐츠 검색

태그

ROI 코인 데이터과학 인공지능 vibe코딩 Ai 투자계획 Copilot 프로젝트관리 augmented코딩 platformio github 로컬ai vscode 제조업 버전관리 AI코딩 git ESP32 바이브코딩

최근글

댓글

공지사항

아카이브

정보보안(1)

  • [AI코딩.07] 로컬 AI 모델 - Ollama와 Code Llama 활용법

    AI코딩 활용을 위한 개발자 가이드 들어가며지금까지 ChatGPT, Claude, GitHub Copilot과 같은 클라우드 기반 AI 도구들을 활용한 개발 방법을 살펴보았습니다. 이러한 도구들은 분명히 강력하고 편리하지만, 때로는 인터넷 연결이 필요하거나 개인정보 보안에 대한 우려, 그리고 API 비용 등의 제약이 있을 수 있습니다. 이번 편에서는 이러한 한계를 극복할 수 있는 로컬 AI 모델의 세계를 탐험해보겠습니다. 특히 Ollama와 Code Llama를 중심으로 로컬 환경에서 AI 모델을 설치하고 활용하는 방법을 상세히 알아보겠습니다. 로컬 AI 모델은 여러분의 컴퓨터에서 직접 실행되는 인공지능 모델을 의미합니다. 이는 마치 여러분의 컴퓨터에 전문 프로그래머를 고용하는 것과 같아서, 인터넷 없이..

    2025.07.16
이전
1
다음
티스토리
© 2025 PEAKNINE. All rights reserved.

티스토리툴바