- [ AI/AI와 일하기 ]효율적인 AI 협업을 위한 컨텍스트 윈도우 이해와 Antigravity 활용 가이드2025-12-29 16:55:59효율적인 AI 협업을 위한 컨텍스트 윈도우 이해와 Antigravity 활용 가이드1. 컨텍스트 윈도우(Context Window)의 정의와 중요성1-1. 컨텍스트 윈도우의 개념인공지능 모델이 한 번에 처리하고 기억할 수 있는 정보의 총량을 의미한다.사용자와의 대화 기록, 참조된 파일 내용, 시스템 지침 등이 모두 이 가상의 작업 기억 공간에 포함된다.컨텍스트 윈도우의 크기는 AI가 복잡한 프로젝트의 전체 구조를 파악하는 능력과 직결된다.1-1-1. 토큰(Token)과 처리 한계문장은 토큰이라 불리는 최소 단위로 분절되어 계산되며, 각 모델은 처리 가능한 최대 토큰 수를 가진다.2. Antigravity와 Gemini의 컨텍스트 관리 기술2-1. 거대 컨텍스트 윈도우의 이점Antigravity가 사용하는..
- [ AI/LangChain ]Mac Mini M4(Apple Silicon) 환경에서 Ollama 설치 및 관리 가이드2025-12-14 23:56:07Mac Mini M4(Apple Silicon) 환경에서 Ollama 설치 및 관리 가이드1. 서론Mac Mini M4(Apple Silicon) 환경에서 Homebrew 패키지 관리자를 사용하여 로컬 LLM 추론 도구인 Ollama를 설치하고, 실행 및 관리하는 방법에 대해 안내한다. 설치 및 삭제 절차, 서비스 관리, 추가적인 주의 사항을 상세히 설명한다.특히, 이 환경에서는 Ollama가 Apple Silicon 칩의 CPU와 GPU(Apple Metal API 기반)를 모두 자동으로 활용한다. 딥러닝 추론 시 모델의 연산은 macOS의 Metal API를 통해 GPU로 오프로드되며, 일부 보조 연산과 관리 기능은 CPU에서 동작한다. 별도의 사용자 설정 없이 Ollama의 네이티브 설치만으로 Ap..
- [ AI/AI와 일하기 ]VS Code에서 Gemini CLI 사용 시 `Ctrl+F` 충돌 해결 방법2025-11-12 15:46:40VS Code에서 Gemini CLI 사용 시 Ctrl+F 충돌 해결 방법1. 문제 정의: Gemini CLI와 VS Code 단축키의 충돌Visual Studio Code(이하 VS Code)의 터미널 환경은 개발자가 CLI(Command Line Interface) 도구를 통합적으로 사용하는 주요 공간이다. Gemini CLI와 같은 지능형 터미널 기반 도구는 효율적인 상호 작용을 위해 특정 단축키 조합을 활용한다.그러나 VS Code의 기본 단축키 설정이 Gemini CLI의 단축키와 충돌하는 문제가 발생한다. 특히, Ctrl+F 키 조합이 대표적인 충돌 원인이다.1-1. Ctrl+F 충돌의 근본 원인Ctrl+F는 터미널 패널에 포커스가 있을 때 VS Code의 터미널 검색 기능을 활성화하는 단축키..
- [ AI/AI와 일하기 ]Gemini CLI 필수 익스텐션 "Gemini CLI Companion"2025-10-30 10:29:31Gemini CLI 필수 익스텐션 "Gemini CLI Companion"앞으로 Gemini CLI를 VSCode에서 사용할 때 Gemini CLI Companion를 필수 익스텐션으로 설치하는 것이 좋겠다. 아래는 관련 문서를 한글로 번역한 내용이다.원문 출처: https://marketplace.visualstudio.com/items?itemName=Google.gemini-cli-vscode-ide-companionGemini CLI Companion - Visual Studio Code 확장개요Gemini CLI Companion개발자: Google (google.com)IDE 워크스페이스에 직접 액세스할 수 있는 Gemini CLI를 활성화합니다.설명Gemini CLI Companion 확장은..
- [ AI/LangChain ]LangChain 그래프 시각화 오류 해결 방법2025-09-22 17:14:01LangChain 그래프 시각화 오류 해결 방법LangChain에서 그래프를 시각화할 때, 보통 아래와 같이 코드를 실행한다.from IPython.display import display, Imagedisplay(Image(graph.get_graph().draw_mermaid_png()))하지만 이 방식은 내부적으로 mermaid.ink API를 호출하기 때문에, 간헐적으로 500 오류 등 외부 API 문제로 인해 다음과 같은 ValueError가 발생할 수 있다.ValueError: Failed to reach https://mermaid.ink/ API while trying to render your graph. Status code: 500....이 문제를 피하기 위해 draw_mermaid_..
[ AI/AI와 일하기 ]MCP Inspector: 127.0.0.1로 접속해야 하는 이유2025-09-19 14:14:20MCP Inspector: 127.0.0.1로 접속해야 하는 이유Model Context Protocol (MCP) 서버를 개발하고 MCP Inspector로 테스트할 때, localhost 대신 127.0.0.1을 사용해야 하는 이유에 대해 알아보겠다. 이 작은 설정 차이가 통신 실패의 원인이 될 수 있다.문제의 원인: localhost와 127.0.0.1의 차이많은 개발자들이 로컬 환경에서 테스트할 때 localhost를 사용한다. localhost는 시스템의 로컬 호스트를 가리키는 편리한 이름이지만, 운영 체제에 따라 IPv4 주소인 127.0.0.1로 해석될 수도 있고 IPv6 주소인 ::1로 해석될 수도 있다.Error from MCP server: FetchError: request to ht..- [ AI/AI와 일하기 ]AI 시대, 개발자의 생존 전략2025-08-08 09:35:49AI 시대, 개발자의 생존 전략1. 강연 요약 및 배경이 강연은 저서 "토비의 스프링"으로 유명하신 이일민 님께서 AI 시대에 개발자들이 마주한 고민과 방향성에 대해 이야기하는 내용이다. 강연 영상은 링크를 참조하자! (https://youtu.be/mYMvFZDTC_M?feature=shared)발표자는 자신을 'AI 보조 프로그래밍 1년 차'로 소개하며, 단순히 코드를 작성하는 것을 넘어선 새로운 개발자의 역할에 대해 강조한다.강연은 AI가 개발을 돕는 두 가지 방식으로 나뉜다.AI를 위한 소프트웨어 엔지니어링 (Software Engineering for AI): AI를 활용한 애플리케이션 개발 기술이다.소프트웨어 엔지니어링을 위한 AI (AI for Software Engineering): AI를..
- [ AI/AI와 일하기 ]n8n과 Ollama Docker Compose 연동하기2025-08-05 11:28:40n8n과 Ollama Docker Compose 연동하기1. 개요n8n은 워크플로우 자동화를 위한 강력한 도구이다.Ollama는 로컬 환경에서 대규모 언어 모델(LLM)을 쉽게 실행할 수 있도록 돕는 솔루션이다.이 글에서는 Docker Compose를 사용하여 n8n과 Ollama를 함께 연동하는 방법을 다룬다.localhost 네트워크 통신 문제 해결부터 모델 다운로드 방법까지 상세하게 설명하는 것이 목적이다.2. Docker Compose 파일 작성2-1. 기존 docker run 명령어 분석기존 docker run 명령어는 다음과 같았다.docker run -d -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8..