Antigravity 터미널에서 Claude Code Shift+Enter 개행 설정하기
Claude Code를 IDE 내장 터미널에서 쓰다 보면, 여러 줄 입력이 필요할 때가 많아요.
822 words
|
4 minutes
MCP 도구가 너무 많을 때: tool-filter-mcp와 Claude Code 빌트인 필터링 비교
Atlassian MCP 하나에 72개 도구, 100개 제한에 걸리는 문제를 tool-filter-mcp와 Claude Code 빌트인 기능으로 해결하는 방법을 정리했어요.
1155 words
|
6 minutes
Claude Code에서 OpenAI Codex를 호출하는 4가지 방법
Claude Code 안에서 OpenAI Codex를 호출하는 4가지 방법(내장 MCP 서버, 커뮤니티 래퍼, Slash Command, agent-mux)을 비교하고 실용적인 멀티 에이전트 워크플로우를 소개합니다.
1688 words
|
8 minutes
Perplexity MCP 대신 쓸 수 있는 웹 검색 MCP 5종 비교
Perplexity MCP의 비용 부담을 줄이기 위해 Brave Search, Tavily, SearXNG, Exa, ChatGPT MCP 5종을 비교하고 무료 티어 기준 최적 조합을 정리했습니다.
1834 words
|
9 minutes
2주 간의 KoELECTRA 개발기 - 2부
KoELECTRA 개발 과정 2부. TPU v3-8에서의 Pretraining 결과, 7개 한국어 NLP 태스크 벤치마크(NSMC, Naver NER, PAWS 등)에서의 성능 비교, 그리고 모델 배포 과정을 다룹니다.
1347 words
|
7 minutes
Cover Image of the Post
2주 간의 KoELECTRA 개발기 - 1부
KoELECTRA 개발 과정 1부. 기존 한국어 PLM의 한계점 분석, Wordpiece Tokenizer 제작, 14GB 한국어 데이터 전처리, TPU 세팅 및 Configuration 설정까지의 과정을 기록합니다.
2072 words
|
10 minutes
Cover Image of the Post
내가 만든 ELECTRA를 Huggingface Transformers로 Porting하기
직접 Pretrain한 ELECTRA 모델의 Tensorflow ckpt를 Huggingface Transformers의 PyTorch ckpt로 변환하는 방법. config 설정부터 weight 변환까지 단계별로 안내합니다.
803 words
|
4 minutes
Cover Image of the Post
나만의 BERT Wordpiece Vocab 만들기
BERT와 ELECTRA에 사용되는 Wordpiece 방식의 한국어 Vocab을 직접 만드는 방법. Sentencepiece, Mecab과의 차이점과 Huggingface Tokenizers 라이브러리 활용법을 설명합니다.
572 words
|
3 minutes
Cover Image of the Post
1
2