Perplexity MCP 대신 쓸 수 있는 웹 검색 MCP 5종 비교
2026-03-15
Perplexity MCP의 비용 부담을 줄이기 위해 Brave Search, Tavily, SearXNG, Exa, ChatGPT MCP 5종을 비교하고 무료 티어 기준 최적 조합을 정리했습니다.
1834 words
|
9 minutes
Claude Code에서 OpenAI Codex를 호출하는 4가지 방법
2026-03-15
Claude Code 안에서 OpenAI Codex를 호출하는 4가지 방법(내장 MCP 서버, 커뮤니티 래퍼, Slash Command, agent-mux)을 비교하고 실용적인 멀티 에이전트 워크플로우를 소개합니다.
1688 words
|
8 minutes
2주 간의 KoELECTRA 개발기 - 2부
2020-05-02
KoELECTRA 개발 과정 2부. TPU v3-8에서의 Pretraining 결과, 7개 한국어 NLP 태스크 벤치마크(NSMC, Naver NER, PAWS 등)에서의 성능 비교, 그리고 모델 배포 과정을 다룹니다.
1347 words
|
7 minutes
2주 간의 KoELECTRA 개발기 - 1부
2020-05-02
KoELECTRA 개발 과정 1부. 기존 한국어 PLM의 한계점 분석, Wordpiece Tokenizer 제작, 14GB 한국어 데이터 전처리, TPU 세팅 및 Configuration 설정까지의 과정을 기록합니다.
2072 words
|
10 minutes
내가 만든 ELECTRA를 Huggingface Transformers로 Porting하기
2020-05-01
직접 Pretrain한 ELECTRA 모델의 Tensorflow ckpt를 Huggingface Transformers의 PyTorch ckpt로 변환하는 방법. config 설정부터 weight 변환까지 단계별로 안내합니다.
803 words
|
4 minutes
나만의 BERT Wordpiece Vocab 만들기
2020-04-27
BERT와 ELECTRA에 사용되는 Wordpiece 방식의 한국어 Vocab을 직접 만드는 방법. Sentencepiece, Mecab과의 차이점과 Huggingface Tokenizers 라이브러리 활용법을 설명합니다.
572 words
|
3 minutes
TPU를 이용하여 Electra Pretraining하기
2020-04-20
GCP에서 TPU를 이용하여 ELECTRA 모델을 Pretraining하는 방법. TFRC 신청부터 VM 세팅, TPU 연결, Pretraining 실행까지의 전체 과정을 다룹니다.
425 words
|
2 minutes