Ollama
로컬 환경에서 오픈소스 LLM을 빠르게 실행·관리할 수 있게 해주는 경량 실행 도구
#Ollama#올라마#로컬 LLM 실행#Local AI 도구
Ollama란?
Ollama는 로컬 PC나 서버에서 오픈소스 LLM을 쉽게 내려받고 실행하도록 돕는 런타임 도구입니다.
왜 많이 쓰이나요?
설치가 간단하고 CLI 중심으로 빠르게 테스트할 수 있어, 로컬 AI 파일럿을 시작할 때 진입 장벽이 낮습니다.
운영 시 체크포인트
모델 용량에 맞는 메모리·GPU 자원이 필요하며, 팀 환경에서는 버전 관리와 접근 정책을 함께 설계하는 것이 좋습니다.
관련 용어
AI 기업·투자·사업
개인 지능 (Personal Intelligence)
사용자 이력·선호·상황 맥락을 학습해 개인별로 최적화된 판단과 추천을 제공하는 AI 활용 패턴
AI 협업·생산성 도구
깃허브 코파일럿 에이전트 (GitHub Copilot Agent)
이슈·PR 중심 개발 흐름에 통합되어 다단계 작업을 자동 수행하는 GitHub 기반 코딩 에이전트
development
데이터 포터빌리티 (Data Portability)
서비스 간 이동 시 사용자 데이터와 작업 이력을 표준 형식으로 내보내고 가져올 수 있는 권리와 기술
생성형 AI
디퓨전 모델 (Diffusion Model)
노이즈 제거 과정을 학습하여 고품질 이미지를 생성하는 AI 모델
AI 오픈소스 & 개발도구
딥시크 (DeepSeek)
오픈소스 LLM을 공개하며 고성능·저비용 전략으로 주목받는 AI 모델/연구 조직
AI 인프라/모델 최적화
레이트 리미팅 (Rate Limiting)
짧은 시간에 과도한 요청이 몰릴 때 API 호출량을 제한하는 제어 기법