# Monologg Blog > AI Engineering Blog by Jangwon Park ## Author - Name: Jangwon Park - Role: AI Engineer - https://github.com/monologg - https://www.linkedin.com/in/jang-won-park/ - https://scholar.google.co.kr/citations?user=82GO93wAAAAJ/ - https://huggingface.co/monologg ## Articles - [Claude Code에서 Notion MCP를 read-only로 제한하는 방법](https://monologg.kr/posts/2026/03/20/2026-03-20-notion-mcp-read-only-setup/): Notion MCP가 read+write 권한을 모두 갖고 있어서, Notion Integration의 Capabilities를 조정해 read-only로 전환한 과정을 정리했어요. - [Antigravity 터미널에서 Claude Code Shift+Enter 개행 설정하기](https://monologg.kr/posts/2026/03/17/2026-03-17-antigravity-claude-code-shift-enter-setup/): Claude Code를 IDE 내장 터미널에서 쓰다 보면, 여러 줄 입력이 필요할 때가 많아요. - [MCP 도구가 너무 많을 때: tool-filter-mcp와 Claude Code 빌트인 필터링 비교](https://monologg.kr/posts/2026/03/16/2026-03-16-mcp-tool-overload-filtering-strategies/): Atlassian MCP 하나에 72개 도구, 100개 제한에 걸리는 문제를 tool-filter-mcp와 Claude Code 빌트인 기능으로 해결하는 방법을 정리했어요. - [Perplexity MCP 대신 쓸 수 있는 웹 검색 MCP 5종 비교](https://monologg.kr/posts/2026/03/15/2026-03-15-web-search-mcp-alternatives-comparison/): Perplexity MCP의 비용 부담을 줄이기 위해 Brave Search, Tavily, SearXNG, Exa, ChatGPT MCP 5종을 비교하고 무료 티어 기준 최적 조합을 정리했습니다. - [Claude Code에서 OpenAI Codex를 호출하는 4가지 방법](https://monologg.kr/posts/2026/03/15/2026-03-15-calling-codex-from-claude-code/): Claude Code 안에서 OpenAI Codex를 호출하는 4가지 방법(내장 MCP 서버, 커뮤니티 래퍼, Slash Command, agent-mux)을 비교하고 실용적인 멀티 에이전트 워크플로우를 소개합니다. - [2주 간의 KoELECTRA 개발기 - 2부](https://monologg.kr/posts/2020/05/02/koelectra-part2/): KoELECTRA 개발 과정 2부. TPU v3-8에서의 Pretraining 결과, 7개 한국어 NLP 태스크 벤치마크(NSMC, Naver NER, PAWS 등)에서의 성능 비교, 그리고 모델 배포 과정을 다룹니다. - [2주 간의 KoELECTRA 개발기 - 1부](https://monologg.kr/posts/2020/05/02/koelectra-part1/): KoELECTRA 개발 과정 1부. 기존 한국어 PLM의 한계점 분석, Wordpiece Tokenizer 제작, 14GB 한국어 데이터 전처리, TPU 세팅 및 Configuration 설정까지의 과정을 기록합니다. - [내가 만든 ELECTRA를 Huggingface Transformers로 Porting하기](https://monologg.kr/posts/2020/05/01/transformers-porting/): 직접 Pretrain한 ELECTRA 모델의 Tensorflow ckpt를 Huggingface Transformers의 PyTorch ckpt로 변환하는 방법. config 설정부터 weight 변환까지 단계별로 안내합니다. - [나만의 BERT Wordpiece Vocab 만들기](https://monologg.kr/posts/2020/04/27/wordpiece-vocab/): BERT와 ELECTRA에 사용되는 Wordpiece 방식의 한국어 Vocab을 직접 만드는 방법. Sentencepiece, Mecab과의 차이점과 Huggingface Tokenizers 라이브러리 활용법을 설명합니다. - [TPU를 이용하여 Electra Pretraining하기](https://monologg.kr/posts/2020/04/20/tpu-electra/): GCP에서 TPU를 이용하여 ELECTRA 모델을 Pretraining하는 방법. TFRC 신청부터 VM 세팅, TPU 연결, Pretraining 실행까지의 전체 과정을 다룹니다. ## Resources - [About](https://monologg.kr/about/): Author and site information - [Archive](https://monologg.kr/archive/): All posts by date - [RSS Feed](https://monologg.kr/rss.xml): RSS feed for this blog - [Sitemap](https://monologg.kr/sitemap-index.xml): XML sitemap - [llms-full.txt](https://monologg.kr/llms-full.txt): Full markdown source of all posts concatenated for LLM consumption