Key benefits of LLMs customized to your domain:

  • Precision and expertise: 특정 전문 분야의 데이터 셋으로 파인 튜닝을 하거나 RAG 를 이용해서 대답하게 만든다면 훨씬 더 정확한 결과를 도출할 수 있을 것.
  • Enhanced reliability: 모델의 초점을 좁히면 외부의 관련 없는 정보에 영향을 덜 받게 되어 더 일관되고 신뢰할 수 있는 출력을 제공할 수 있다.
  • Safety and liability: 의료나 법률과 같은 분야에서는 잘못된 정보가 큰 문제를 일으킬 수 있기 때문에 더 신뢰가능한 대답을 만들어낼 수 있음.

 

Domain-specific LLMs 를 만드는 건 결국 3가지 스텝을 이용하면 된다.

  • Pretraining 은 비효율적임. BloombergGPT 도 좋은 언어 모델이 나오니까 그냥 성능이 역전된 것처럼

 

 

Best practices for training an LLM:

  • Start Small: 처음에는 작게 시도하는 걸 추천한다. 성공한 후 하나씩 확장하는 걸로
  • Understand scaling laws:
    • 딥러닝의 스케일링 법칙은 계산 능력, 데이터셋 크기, 언어 모델의 파라미터 수 관계에서 모델의 성능을 예측하는데 사용됨.
    • 이 내용은 Pretraining 에 대한 내용임.
    • 법칙은 다음과 같음:
      • 더 큰 모델은 유사한 데이터셋에서 훈련될 때 더 작은 모델보다 성능이 뛰어남
      • 모델 크기와 데이터셋 크기 모두 LLM 성능에 중요함.
      • 주어진 계산 예산 내에서, 모델의 아키텍처를 확장하는 것이 데이터셋 크기를 단순히 늘리는 것보다 성능 향상에 더 도움이 될 수 있음
      • 파라미터 수와 데이터의 관계는 20:1 정도가 적절하다고 함
  • Prioritize data quality:
    • 현실 세계의 다양한 데이터들을 가지고 와서 반영해야한다. 모델이 편향될 수 있으니까
  • Monitoring and Evaluating: 

 

 

References:

+ Recent posts