728x90 반응형 LLM8 로컬 LLM을 통한 PDF를 Markdown으로 저장 - 빠르고, 비공개적이며 무료 오늘은 로컬 LLM(Ollama의 Gemma 3)을 사용하여 PDF를 깔끔하고 구조화된 마크다운으로 변환하는 방법을 보여드리겠습니다 .클라우드 API도, 개인정보 보호 걱정도, 자정에 사라지는 API 토큰도 없습니다. Python과 약간의 힘, 그리고 우아함만 있으면 됩니다. 단계별로 자세히 살펴보겠습니다. [ 깃허브 ]우리가 하는 일아이디어는 간단합니다.1. 각 PDF 페이지를 이미지로 변환합니다.2. Ollama를 사용하여 해당 이미지를 로컬 LLM 으로 보냅니다 . 구체적으로는 gemma3:12b입니다(gemma3:4b도 사용 가능).3. 모델에게 마크다운 형식으로 읽을 수 있는 콘텐츠를 추출하도록 요청합니다.4. 실제로 사용할 수 있는 .md 파일로 결과를 저장합니다.자, 이제 반전이 있습니다. .. 2025. 5. 25. "카카오, 자체 개발 ‘Kanana’ 언어모델 4종 오픈소스 공개" 최근 인공지능(AI) 기술의 발전은 눈부십니다.그 중심에는 방대한 텍스트 데이터를 학습하여 사람처럼 자연스러운 언어를 구사하는 '거대 언어모델(LLM)'이 있습니다. 글로벌 빅테크 기업들이 앞다투어 LLM 개발에 뛰어드는 가운데, 국내에서도 의미 있는 움직임이 포착되었습니다. 바로 카카오가 자체 개발한 언어모델 'Kanana(카나나)' 4종을 전면 오픈소스로 공개했다는 소식입니다!이 소식은 국내 AI 생태계에 큰 활력을 불어넣을 것으로 기대를 모으고 있습니다. 과연 'Kanana'는 무엇이며, 이번 오픈소스 공개가 가지는 의미는 무엇일까요? 'Kanana'란? 카카오의 야심찬 한국어 특화 언어모델'Kanana'는 카카오가 오랜 시간 축적해온 기술력과 방대한 한국어 데이터를 기반으로 자체 개발한 언어모델입.. 2025. 5. 23. 코딩의 판도를 바꿀 새로운 강자 등장! Claude 4 시리즈 AI 개발자 여러분! 드디어 모두가 기다리던 소식이 전해졌습니다. AI 업계의 지각 변동을 예고하며, 코딩, 추론, 그리고 장기 기억력까지 모든 면에서 압도적인 업그레이드를 이뤄낸 Claude 4 시리즈가 드디어 베일을 벗었습니다. GPT-4, Gemini 등 기존의 강력한 모델들도 긴장해야 할, 진정한 '실력자'의 등장을 함께 자세히 살펴보시죠! 🧠💻 Claude 4, 무엇이 달라졌나? "가상 협업자"의 탄생!Claude 4 시리즈는 단순히 성능이 향상된 것을 넘어, 개발자와의 '협업'이라는 새로운 패러다임을 제시합니다. 더 이상 단순한 보조 도구가 아닌, 마치 옆자리에서 함께 작업하는 숙련된 동료처럼 느껴질 정도로 놀라운 능력을 갖추게 되었습니다.1. Claude Opus 4: 코딩의 '신'이 강.. 2025. 5. 23. MCP 지원 AI 프레임워크 상위 7개 Python 및 Typescript 프레임워크로 MCP 서버를 활용하여 LLM에 컨텍스트를 제공하는 AI 앱을 만듭니다.MCP 지원 AI 프레임워크AI 에이전트용 툴킷은 개발자에게 다양한 API를 제공하여 AI 솔루션에 작업을 수행하고 사용자 만족을 위한 정확한 결과를 보장하는 도구를 제공합니다. 그러나 이러한 도구를 AI 앱에 통합하고 관리하는 것은 복잡할 수 있습니다. 이 글에서는 모델 컨텍스트 프로토콜 (MCP)을 사용하여 LLM과 에이전트에 컨텍스트를 제공하는 업계 표준을 소개합니다.LLM 컨텍스트 제공 접근 방식 및 사양기본적으로 LLM과 AI 챗봇에 적절한 컨텍스트를 제공하지 않으면 실시간 정보를 가져오거나, 코드를 실행하거나, 외부 도구 및 API를 호출하거나, 심지어 사용자를 대신하여 웹 .. 2025. 5. 17. Ollama와 카카오톡 챗봇 연동하기: 로컬 AI 모델로 나만의 챗봇 만들기 들어가며요즘 인공지능 기술이 발전하면서 ChatGPT와 같은 대형 언어 모델(LLM)을 활용한 서비스가 많아지고 있습니다. 하지만 대부분의 서비스는 클라우드 기반으로 제공되어 개인정보 보안 문제나 비용 문제가 발생할 수 있습니다. 이런 상황에서 로컬 환경에서 AI 모델을 실행할 수 있는 Ollama와 카카오톡 챗봇을 연동하면 개인 서버에서 운영되는 나만의 AI 챗봇을 만들 수 있습니다.이 글에서는 Ollama를 설치하고 로컬 환경에서 LLM을 실행한 후, 이를 카카오톡 챗봇과 연동하는 전체 과정을 단계별로 알아보겠습니다.1. Ollama란?Ollama는 로컬 환경에서 대형 언어 모델(LLM)을 쉽게 실행할 수 있게 해주는 오픈소스 프로젝트입니다. 복잡한 설정 없이 간단한 명령어로 다양한 AI 모델을 다운.. 2025. 5. 7. Ollama 설치 Ollama는 macOS, Windows, Linux를 포함한 여러 운영 체제를 지원하며 Docker 컨테이너를 통해 실행됩니다.Ollama는 하드웨어를 요구하지 않으며 사용자가 대규모 언어 모델을 로컬에서 쉽게 실행, 관리 및 상호 작용할 수 있도록 설계되었습니다.CPU: 멀티 코어 프로세서(4코어 이상 권장).GPU: 대규모 모델을 실행하거나 미세 조정을 계획하는 경우 컴퓨팅 성능이 더 높은 GPU(예: NVIDIA의 CUDA 지원)를 사용하는 것이 좋습니다.메모리: 대형 모델의 경우 최소 8GB RAM, 16GB 이상이 권장됩니다.스토리지: 사전 학습된 모델을 저장할 수 있는 충분한 하드 디스크 공간이 필요하며, 모델 크기에 따라 일반적으로 10GB에서 수백 기가바이트까지 저장할 수 있습니다.소프트.. 2025. 5. 5. 이전 1 2 다음 728x90 반응형