Perplexity MCP 대신 쓸 수 있는 웹 검색 MCP 5종 비교
Perplexity MCP의 비용 부담을 줄이기 위해 Brave Search, Tavily, SearXNG, Exa, ChatGPT MCP 5종을 비교하고 무료 티어 기준 최적 조합을 정리했습니다.
1834 words
|
9 minutes
Claude Code에서 OpenAI Codex를 호출하는 4가지 방법
Claude Code 안에서 OpenAI Codex를 호출하는 4가지 방법(내장 MCP 서버, 커뮤니티 래퍼, Slash Command, agent-mux)을 비교하고 실용적인 멀티 에이전트 워크플로우를 소개합니다.
1688 words
|
8 minutes
2주 간의 KoELECTRA 개발기 - 2부
KoELECTRA 개발 과정 2부. TPU v3-8에서의 Pretraining 결과, 7개 한국어 NLP 태스크 벤치마크(NSMC, Naver NER, PAWS 등)에서의 성능 비교, 그리고 모델 배포 과정을 다룹니다.
1347 words
|
7 minutes
Cover Image of the Post
2주 간의 KoELECTRA 개발기 - 1부
KoELECTRA 개발 과정 1부. 기존 한국어 PLM의 한계점 분석, Wordpiece Tokenizer 제작, 14GB 한국어 데이터 전처리, TPU 세팅 및 Configuration 설정까지의 과정을 기록합니다.
2072 words
|
10 minutes
Cover Image of the Post
내가 만든 ELECTRA를 Huggingface Transformers로 Porting하기
직접 Pretrain한 ELECTRA 모델의 Tensorflow ckpt를 Huggingface Transformers의 PyTorch ckpt로 변환하는 방법. config 설정부터 weight 변환까지 단계별로 안내합니다.
803 words
|
4 minutes
Cover Image of the Post
나만의 BERT Wordpiece Vocab 만들기
BERT와 ELECTRA에 사용되는 Wordpiece 방식의 한국어 Vocab을 직접 만드는 방법. Sentencepiece, Mecab과의 차이점과 Huggingface Tokenizers 라이브러리 활용법을 설명합니다.
572 words
|
3 minutes
Cover Image of the Post
TPU를 이용하여 Electra Pretraining하기
GCP에서 TPU를 이용하여 ELECTRA 모델을 Pretraining하는 방법. TFRC 신청부터 VM 세팅, TPU 연결, Pretraining 실행까지의 전체 과정을 다룹니다.
425 words
|
2 minutes
Cover Image of the Post