728x90 반응형 ollama5 로컬 LLM을 통한 PDF를 Markdown으로 저장 - 빠르고, 비공개적이며 무료 오늘은 로컬 LLM(Ollama의 Gemma 3)을 사용하여 PDF를 깔끔하고 구조화된 마크다운으로 변환하는 방법을 보여드리겠습니다 .클라우드 API도, 개인정보 보호 걱정도, 자정에 사라지는 API 토큰도 없습니다. Python과 약간의 힘, 그리고 우아함만 있으면 됩니다. 단계별로 자세히 살펴보겠습니다. [ 깃허브 ]우리가 하는 일아이디어는 간단합니다.1. 각 PDF 페이지를 이미지로 변환합니다.2. Ollama를 사용하여 해당 이미지를 로컬 LLM 으로 보냅니다 . 구체적으로는 gemma3:12b입니다(gemma3:4b도 사용 가능).3. 모델에게 마크다운 형식으로 읽을 수 있는 콘텐츠를 추출하도록 요청합니다.4. 실제로 사용할 수 있는 .md 파일로 결과를 저장합니다.자, 이제 반전이 있습니다. .. 2025. 5. 25. 소스 코드가 포함된 Python A2A 자습서 Python A2A 튜토리얼 소스 코드목차소개환경 설정프로젝트 만들기상담원 스킬에이전트 카드A2A 서버A2A 서버와 상호 작용에이전트 기능 추가로컬 Ollama 모델 사용소개이 자습서에서는 Python을 사용하여 간단한 echo A2A 서버를 구축합니다. 이 베어본 구현은 A2A가 제공해야 하는 모든 기능을 보여줍니다. 이 자습서를 따라 Ollama 또는 Google의 에이전트 개발 키트를 사용하여 에이전트 기능을 추가할 수 있습니다.학습할 내용:A2A의 기본 개념Python에서 A2A 서버를 만드는 방법A2A 서버와 상호 작용에이전트 역할을 할 학습된 모델 추가환경 설정필요한 것커서/VsCode와 같은 코드 편집기터미널(Linux), iTerm/Warp(Mac) 또는 커서의 터미널과 같은 명령 프롬프트.. 2025. 5. 14. Ollama-OCR, 이제 Python 패키지로 간편하게 사용하세요! 인공지능 모델을 로컬 환경에서 쉽게 실행할 수 있도록 도와주는 Ollama가 OCR (Optical Character Recognition, 광학 문자 인식) 기능을 Python 패키지로 제공하기 시작했습니다!그동안 Ollama의 강력한 기능을 활용하고 싶었지만, 복잡한 설정이나 API 호출 방식에 어려움을 느꼈던 분들에게 희소식입니다. 이제 몇 줄의 Python 코드로 이미지 속 텍스트를 추출하고, 다양한 활용 사례를 구축할 수 있게 되었습니다.Ollama-OCR Python 패키지, 왜 사용해야 할까요? 간편한 설치: pip install ollama-ocr 명령 한 줄로 패키지 설치가 완료됩니다. 복잡한 의존성 관리나 환경 설정 없이 바로 사용할 수 있습니다.직관적인 API: Python 코드를 통.. 2025. 5. 11. Ollama와 카카오톡 챗봇 연동하기: 로컬 AI 모델로 나만의 챗봇 만들기 들어가며요즘 인공지능 기술이 발전하면서 ChatGPT와 같은 대형 언어 모델(LLM)을 활용한 서비스가 많아지고 있습니다. 하지만 대부분의 서비스는 클라우드 기반으로 제공되어 개인정보 보안 문제나 비용 문제가 발생할 수 있습니다. 이런 상황에서 로컬 환경에서 AI 모델을 실행할 수 있는 Ollama와 카카오톡 챗봇을 연동하면 개인 서버에서 운영되는 나만의 AI 챗봇을 만들 수 있습니다.이 글에서는 Ollama를 설치하고 로컬 환경에서 LLM을 실행한 후, 이를 카카오톡 챗봇과 연동하는 전체 과정을 단계별로 알아보겠습니다.1. Ollama란?Ollama는 로컬 환경에서 대형 언어 모델(LLM)을 쉽게 실행할 수 있게 해주는 오픈소스 프로젝트입니다. 복잡한 설정 없이 간단한 명령어로 다양한 AI 모델을 다운.. 2025. 5. 7. Ollama 설치 Ollama는 macOS, Windows, Linux를 포함한 여러 운영 체제를 지원하며 Docker 컨테이너를 통해 실행됩니다.Ollama는 하드웨어를 요구하지 않으며 사용자가 대규모 언어 모델을 로컬에서 쉽게 실행, 관리 및 상호 작용할 수 있도록 설계되었습니다.CPU: 멀티 코어 프로세서(4코어 이상 권장).GPU: 대규모 모델을 실행하거나 미세 조정을 계획하는 경우 컴퓨팅 성능이 더 높은 GPU(예: NVIDIA의 CUDA 지원)를 사용하는 것이 좋습니다.메모리: 대형 모델의 경우 최소 8GB RAM, 16GB 이상이 권장됩니다.스토리지: 사전 학습된 모델을 저장할 수 있는 충분한 하드 디스크 공간이 필요하며, 모델 크기에 따라 일반적으로 10GB에서 수백 기가바이트까지 저장할 수 있습니다.소프트.. 2025. 5. 5. 이전 1 다음 728x90 반응형