프론트엔드, 백엔드, DB, IT 인프라, AI 솔루션에 대한 인사이트와 실무 가이드를 공유합니다.
TreeRU — 터미널에서 파일 탐색과 스크린샷 붙여넣기를 한 번에
대규모 시계열 데이터를 위한 DB 엔진 8종 비교 — 2,200만 건 실측 벤치마크
DB+RAG 하이브리드 검색 — 팩트 정확도를 5배 올리는 법
리눅스 서버 신규 설치 체크리스트 — BIOS부터 SMART 알림까지 8단계
LLM 디코딩 파라미터 비교 — Temperature 0.1~0.9 실전 분석
Temperature를 얼마로 설정해야 할까요? 60문항 × 5단계 = 300회 실험으로 시나리오별 최적값과 환각 행동 차이를 실측합니다.
임베딩 모델 선정부터 벡터DB 검색, LLM 연동까지. RAG 파이프라인의 각 단계를 실측 데이터로 검증한 구축기입니다.
RTX 5060 Ti와 RTX PRO 6000의 실측 추론 속도, 동시접속 처리량, 안정성 비교와 멀티 GPU 가성비 전략을 공개합니다.
RTX 5060 Ti(16GB)에서 8B·14B 모델의 단일 속도부터 동시 30명 부하, 크로스서버 추론까지 종합 벤치마크 결과를 공개합니다.
Qwen3-14B-AWQ를 두 GPU에서 동일 60문항으로 테스트. 종합 1위의 실력과 법조문 날조, 환각 등 한계까지 솔직하게 분석합니다.
$450 보조 GPU 하나를 추가해 AI 처리량을 70% 올린 크로스서버 추론 실측 결과를 공개합니다.
RTX 5090과 RTX PRO 6000에서 로컬 LLM 추론 속도를 직접 비교한 벤치마크 결과를 공개합니다.
7개 회사를 GPU 1장에서 동시 서빙하며 정보가 새지 않는지 15건의 격리 테스트를 실행한 결과를 공개합니다.
GPU 전력 제한이 AI 추론 속도와 온도에 미치는 영향을 RTX 5090, RTX PRO 6000으로 실측합니다.
10쌍의 데이터와 6초의 학습으로 회사별 맞춤 AI를 만드는 LoRA 파인튜닝 실전 가이드를 공개합니다.
로컬 LLM 6종 종합 벤치마크 — 60문항 한국어 실무 점수표
로컬 RAG 파이프라인 구축기 — 임베딩 모델 선정부터 환각 제거까지
MoE vs Dense 실전 비교 — Qwen3-30B-A3B가 14B보다 느린 이유
다중 서버 백업·복구 전략 — rsync Pull 기반 자동 백업과 재해 복구
전서버 NVMe 스토리지 벤치마크 — Optane부터 HDD까지 20개 디바이스 비교