본문 바로가기
728x90
반응형

분류 전체보기593

Qt로 만든 프로그램 관리자 권한으로 실행 방법 Qt로 만든 프로그램을 관리자 권한으로 실행하려면, 윈도우의 UAC(User Account Control)에서 관리자 권한을 요청하는 설정을 프로젝트에 추가해야 합니다. 가장 간단한 방법은 Qt 프로젝트의 .pro 파일에 아래 설정을 추가하는 것입니다.방법 1: .pro 파일에 한 줄 추가.pro 파일에 다음 코드를 추가하세요:QMAKE_LFLAGS += /MANIFESTUAC:"level='requireAdministrator' uiAccess='false'"이렇게 하면 빌드된 실행 파일이 항상 관리자 권한으로 실행됩니다. 아이콘에 방패 모양이 표시되며, 실행 시 UAC 권한 상승 창이 뜹니다[^1][^3].방법 2: RC 및 Manifest 파일 직접 추가좀 더 세밀하게 제어하고 싶다면, RC 파일과.. 2025. 5. 8.
[시흥 맛집] 치킨 최고봉-강황치킨 시흥에 와서 집근처 이렇게 맛나는 치킨집이 있다는것을 이제야 안게 너무 아쉬울정도로 맛난다.육아에 지친 우리 부부는 치맥을 하기로 하고 결정한곳!!강황치킨!! 흔히 아는 강황이 들어간지는 아직 잘 모르겟다 ㅋㅋ우리가 주문한 매뉴는 윙봉 간장^^최애 ^^심지어 배민에서 무료 베달이 가능하다 ^^ 이 문구가 아주 맘에 든다.0칼로리#다이어트는 #내일부터 단골이 될것 같다 ^^ 2025. 5. 7.
2025년 신생아(태아) 보험 추천 & 보험사별 상세 비교 신생아(태아) 보험은 임신 중에 가입해 출생 직후부터 선천성 질환, 미숙아 치료비 등 신생아에게 꼭 필요한 보장을 제공하는 상품입니다. 2025년 기준, 부모들이 많이 선택하는 주요 보험사와 상품별 특징, 그리고 보험료, 약관 작성 시기까지 한눈에 볼 수 있도록 상세 비교표와 함께 정리했습니다.신생아 보험, 왜 필요할까?선천성 심장질환, 미숙아 치료 등 예상치 못한 고액 진료비에 대비임신 중 합병증, 조산, 저체중아 출생 등도 보장의료비 상승 추세와 신생아 질환 빈도 증가에 따른 경제적 안전망출생 직후부터 바로 보장 개시2025년 신생아(태아) 보험사별 상품명, 약관, 보장 비교보험사상품명 및 약관 작성 시기조산아 치료비선천적 질환 보장입원·통원 치료비월 보험료(예상)주요 특징 및 추천 이유 보험사상품명.. 2025. 5. 7.
Ollama와 카카오톡 챗봇 연동하기: 로컬 AI 모델로 나만의 챗봇 만들기 들어가며요즘 인공지능 기술이 발전하면서 ChatGPT와 같은 대형 언어 모델(LLM)을 활용한 서비스가 많아지고 있습니다. 하지만 대부분의 서비스는 클라우드 기반으로 제공되어 개인정보 보안 문제나 비용 문제가 발생할 수 있습니다. 이런 상황에서 로컬 환경에서 AI 모델을 실행할 수 있는 Ollama와 카카오톡 챗봇을 연동하면 개인 서버에서 운영되는 나만의 AI 챗봇을 만들 수 있습니다.이 글에서는 Ollama를 설치하고 로컬 환경에서 LLM을 실행한 후, 이를 카카오톡 챗봇과 연동하는 전체 과정을 단계별로 알아보겠습니다.1. Ollama란?Ollama는 로컬 환경에서 대형 언어 모델(LLM)을 쉽게 실행할 수 있게 해주는 오픈소스 프로젝트입니다. 복잡한 설정 없이 간단한 명령어로 다양한 AI 모델을 다운.. 2025. 5. 7.
2025년 5월 7일 AI 뉴스 『메타, 새로운 라마 AI 보안 도구 출시』출처 웹사이트: artificialintelligence-news.com링크: https://www.artificialintelligence-news.com/2025/04/30/meta-launches-llama-ai-security-tools/요약: 메타가 라마(Llama) AI 모델을 위한 새로운 보안 도구를 출시했습니다. 이번에 출시된 도구에는 텍스트뿐만 아니라 이미지도 처리할 수 있는 멀티모달 기능을 갖춘 '라마 가드 4(Llama Guard 4)', AI 시스템을 위한 보안 제어 센터 역할을 하는 '라마파이어월(LlamaFirewall)', 그리고 더 작고 빠른 '프롬프트 가드 2(Prompt Guard 2)'가 포함됩니다. 또한 메타는 사이버 보안팀을.. 2025. 5. 7.
꼭 알아야 할 5가지 에이전트 모드 리플렉션 패턴이 모드의 워크플로에 대한 소개는 다음과 같습니다.사용자 입력 쿼리 : 사용자는 인터페이스나 API를 통해 에이전트에게 쿼리 요청을 보냅니다.LLM은 초기 출력을 생성합니다 . 대규모 언어 모델(LLM)은 사용자의 쿼리를 수신하고 예비 응답을 생성합니다.사용자 피드백 : 사용자는 초기 응답을 평가하고 피드백을 제공합니다.LLM 반영적 출력 : LLM은 사용자 피드백을 기반으로 초기 대응을 반영합니다. 즉, 생성하는 출력을 재평가하고 조정합니다.반복적 프로세스 : 이 프로세스는 사용자가 최종 응답에 만족할 때까지 여러 번의 반복이 필요할 수 있습니다.사용자에게 반환 : 최종 응답은 사용자에게 반환되며, 사용자는 인터페이스나 API를 통해 결과를 수신할 수 있습니다.이 모드는 사용자 피드백을 통.. 2025. 5. 7.
728x90
반응형