RAG는 어떤 팀은 '랙'으로, 어떤 회사는 '알에이지'라고 말하기도 한다. 그리고 출시된지 어언 2년정도 흘렀는데 여전히 둘의 단어는 통합이 안되었고, 명칭의 혼란만큼 RAG 자체의 한계도 다소 여전하다. LLM이 큰 반향을 일으킨 2023년 2월경, 많은 기업은 일단 tuning이라는 단어가 custom에 가깝다고 생각했는지 fine-tuning을 찾아헤메기 시작했다. 물론 fine-tuning은 좋은 방향이다. 돈이랑 데이터가 많다면 말이다. 특히 fine-tuning은 거대 모델을 local에 얹는 것도 부담스러웠지만, 이미 tuning 된 데이터를 바꾸는 일은 생각보다 더 어려운 일이였다. 데이터라는 것은 다소 변하고 수정되기 마련인데 fine-tuning은 그런 작업을 자주하기에는 다소 부담..