본문 바로가기
728x90
반응형

AI/모델,학습4

소스 코드가 포함된 Python A2A 자습서 Python A2A 튜토리얼 소스 코드목차소개환경 설정프로젝트 만들기상담원 스킬에이전트 카드A2A 서버A2A 서버와 상호 작용에이전트 기능 추가로컬 Ollama 모델 사용소개이 자습서에서는 Python을 사용하여 간단한 echo A2A 서버를 구축합니다. 이 베어본 구현은 A2A가 제공해야 하는 모든 기능을 보여줍니다. 이 자습서를 따라 Ollama 또는 Google의 에이전트 개발 키트를 사용하여 에이전트 기능을 추가할 수 있습니다.학습할 내용:A2A의 기본 개념Python에서 A2A 서버를 만드는 방법A2A 서버와 상호 작용에이전트 역할을 할 학습된 모델 추가환경 설정필요한 것커서/VsCode와 같은 코드 편집기터미널(Linux), iTerm/Warp(Mac) 또는 커서의 터미널과 같은 명령 프롬프트.. 2025. 5. 14.
A2A 프로토콜 개발 가이드(TypeScript) A2A 프로토콜 개발 가이드개요A2A(Agent-to-Agent) 프로토콜은 에이전트 상호 작용을 위해 설계된 JSON-RPC 기반 통신 프로토콜입니다. 이 가이드는 A2A 프로토콜 사양을 준수하는 서버 및 클라이언트 구성 요소를 모두 개발하기 위한 포괄적인 지침을 제공합니다.목차프로토콜 기본 사항서버 구현클라이언트 구현코더 데모 실행프로토콜 기본 사항A2A 프로토콜은 JSON-RPC 2.0을 기반으로 하며 에이전트 통신을 위한 일련의 메소드를 정의합니다. 주요 구성 요소는 다음과 같습니다.메시지 구조모든 A2A 메시지는 다음과 같은 기본 구조를 가진 JSON-RPC 2.0 형식을 따릅니다.interface JSONRPCMessage { jsonrpc?: "2.0"; id?: number | stri.. 2025. 5. 14.
꼭 알아야 할 5가지 에이전트 모드 리플렉션 패턴이 모드의 워크플로에 대한 소개는 다음과 같습니다.사용자 입력 쿼리 : 사용자는 인터페이스나 API를 통해 에이전트에게 쿼리 요청을 보냅니다.LLM은 초기 출력을 생성합니다 . 대규모 언어 모델(LLM)은 사용자의 쿼리를 수신하고 예비 응답을 생성합니다.사용자 피드백 : 사용자는 초기 응답을 평가하고 피드백을 제공합니다.LLM 반영적 출력 : LLM은 사용자 피드백을 기반으로 초기 대응을 반영합니다. 즉, 생성하는 출력을 재평가하고 조정합니다.반복적 프로세스 : 이 프로세스는 사용자가 최종 응답에 만족할 때까지 여러 번의 반복이 필요할 수 있습니다.사용자에게 반환 : 최종 응답은 사용자에게 반환되며, 사용자는 인터페이스나 API를 통해 결과를 수신할 수 있습니다.이 모드는 사용자 피드백을 통.. 2025. 5. 7.
Agent2Agent와 MCP를 애니메이션으로 설명 1. Agentic 애플리케이션을 사용하려면 A2A와 MCP가 필요합니다.MCP는 에이전트에게 도구에 대한 액세스를 제공합니다.Agent2Agent(A2A) 프로토콜을 사용하면 AI 에이전트가 다른 에이전트에 연결할 수 있습니다.따라서 A2A의 경우 두 에이전트가 서로 통신하는 동안... 두 에이전트 자신은 MCP 서버와 통신할 수 있습니다.이런 의미에서 그들은 서로 경쟁하지 않습니다. 2. Agent2Agent(A2A)를 사용하면 여러 AI 에이전트가 내부 메모리, 생각 또는 도구를 직접 공유하지 않고도 함께 작업을 완료할 수 있습니다.대신, 그들은 맥락, 작업 업데이트, 지침, 데이터를 교환하여 소통합니다.기본적으로 AI 애플리케이션은 A2A 에이전트를 AgentCard로 표현되는 MCP 리소스로 모.. 2025. 5. 7.
728x90
반응형