선별된 데이터셋을 사용하여 지속적인 학습을 통해 사전 학습된 기본 모델을 특정 작업에 맞게 조정하고, 일반적인 지식을 유지하면서 성능을 향상시킵니다.
작성자: Databricks 직원
특정 목적을 위해 인공 지능 (AI) 및 머신 러닝 (ML) 모델을 훈련시킬 때, 데이터 과학자와 엔지니어들은 기존의 사전 훈련된 대형 언어 모델 (LLM)을 수정하는 것이 처음부터 새로운 모델을 훈련시키는 것보다 더 쉽고 비용이 적게 든다는 것을 발견했습니다. 대형 언어 모델의 기반이 되는 것은 광범위한 데이터셋에 훈련된 강력하고 범용적인 AI로, 다양한 주제와 작업에 걸쳐 인간과 같은 텍스트를 이해하고 생성할 수 있습니다.
기존 모델의 딥 러닝을 활용하는 능력은 특정 사용 사례에 맞게 모델을 맞춤화하는 데 필요한 컴퓨팅 파워와 조정된 데이터의 양을 줄일 수 있습니다.
파인튜닝 은 더 작고, 특정 작업에 특화된 데이터셋에서 사전 훈련된 모델을 훈련시켜 적응시키거나 보완하는 과정입니다. 이는 LLM 개발 주기의 필수적인 부분이 되어, 기본 기반 모델의 원시 언어 능력을 다양한 사용 사례에 맞게 적응시키는 데 사용됩니다.
LLM를 파인튜닝하는 방법은 어떻게 작동하는가
사전 훈련된 대형 언어 모델은 엄청난 양의 데이터에 훈련되어 자연어를 이해하고 입력에 대한 인간 같은 반응을 생성하는 데 능숙하게 만듭니다. 이로 인해 기본 모델로 시작하기에 적합한 장소가 됩니다.
이 모델들을 파인튜닝하면 감정 분석, 질문 응답 또는 문서 요약과 같은 특정 작업을 더 높은 정확도로 수행하는 능력이 향상됩니다. 제3자 LLM들이 사용 가능하지만, 조직의 자체 데이터로 모델을 파인튜닝하면 도메인 특화 결과를 제공합니다.
파인튜닝의 중요성과 이점
파인튜닝은 일반적인 목적의 LLM의 지능을 기업 데이터와 연결하여, 조직이 생성형 AI (GenAI) 모델을 더 높은 특정성과 관련성으로 그들의 독특한 비즈니스 요구에 맞게 적응시킬 수 있게 합니다. 작은 회사들조차도 그들의 필요와 예산에 맞는 맞춤형 모델을 구축할 수 있습니다.
파인튜닝은 모델을 처음부터 훈련하기 위한 비용이 많이 드는 인프라에 투자할 필요를 크게 줄입니다. 사전 훈련된 모델을 세밀하게 조정함으로써, 조직은 추론 지연 시간을 줄이고 특정 사용 사례에 모델을 더 효율적으로 적용하여 시장 진입 시간을 단축할 수 있습니다.
파인튜닝 기법은 전문적이고 도메인 특화된 지식을 가진 기본 모델의 메모리 사용량을 줄이고 훈련 과정을 가속화하여 노동력과 자원을 절약하는 데 도움이 됩니다.
Databricks에서 독점 데이터를 활용해 언어 모델을 파인튜닝할 경우, 귀사의 고유한 데이터셋은 일반적인 모델 훈련 환경에서 발생할 수 있는 제3자 위험에 노출되지 않습니다.
파인튜닝의 유형
파인튜닝은 모델의 출력의 정확성과 관련성을 향상시키는 데 도움이 되어, 광범위하게 훈련된 기반 모델보다 특수한 응용 프로그램에서 더 효과적입니다. 이는 모델이 특정 도메인이나 산업에 특화된 텍스트를 이해하고 생성하도록 조정 하려고 합니다. 모델은 대상 도메인의 텍스트로 구성된 데이터셋에서 파인튜닝되어, 도메인 특정 작업에 대한 컨텍스트와 지식을 향상시킵니다. 이 과정은 매우 자원 집약적일 수 있지만, 새로운 기법들은 파인튜닝을 훨씬 효율적으로 만듭니다. 다음은 조직들이 LLM를 파인튜닝하는 몇 가지 방법입니다:
PEFT (Parameter-Efficient Fine-Tuning)
PEFT (Parameter-Efficient Fine-Tuning)는 대규모 사전 훈련된 모델을 특정 작업에 적응시키면서 계산 자원과 저장 요구 사 항을 최소화하기 위해 설계된 기법들의 집합입니다. 이 접근법은 제한된 자원을 가진 응용 프로그램이나 여러 파인튜닝 작업이 필요한 응용 프로그램에 유익합니다. PEFT 방법들, 예를 들어 저랭크 적응(LoRA)과 어댑터 기반 파인튜닝은, 전체 모델을 업데이트하는 대신 훈련 가능한 매개변수의 수를 적게 만들어 작동합니다. 어댑터 계층은 PEFT의 핵심 구성 요소로, 사전 훈련된 모델의 각 계층에 삽입되는 경량, 훈련 가능한 모델입니다.
이러한 어댑터는 순차, 잔여, 병렬과 같은 변형으로 제공되며, 모델의 출력을 조정하지만 원래의 가중치를 변경하지 않아 작업 특정 조정을 허용하면서도 이를 보존합니다. 예를 들어, LoRA는 제품 설명을 생성하는 등의 작업에 대해 대형 언어 모델을 효율적으로 파인튜닝할 수 있습니다. 한편, 양자화 저랭크 적응(QLoRA)은 양자화를 사용하여 메모리와 계산 부하를 줄이는 데 초점을 맞춥니다. QLoRA는 양자화된 저랭크 행렬로 메모리를 최적화하여, 하드웨어 자원이 제한된 작업에 매우 효율적입니다.
파인튜닝은 모델에 산업 특정 용어나 작업 중심의 상호작용과 같은 더욱 집중적인 데이터셋을 제공합니다. 이것은 모델이 사용 사례에 대해 더 관련성 있는 응답을 생성하는 데 도움이 되며, 이는 모델의 핵심 지식을 맞춤화하거나 보완하는 것부터 완전히 새로운 작업과 도메인으로 모델을 확장하는 것까지 다양할 수 있습니다.
LLM들은 특정 산업 응용 프로그램을 해결하기 위해 파인튜닝될 수도 있습니다. 예를 들어, 전용 의료 데이터에 대한 파인튜닝은 더 정확한 진단과 치료를 가능하게 할 수 있습니다. 마찬가지로, 금융 애플리케이션에서는 파인튜닝된 모델이 거래 데이터와 고객 행동을 분석하여 사기를 탐지하도록 교육받을 수 있습니다.
LLM은 번역, 질문 응답, 채팅, 콘텐츠 요약 및 콘텐츠 및 코드 생성과 같은 언어 관련 작업을 수행하는 머신 러닝 모델입니다. LLM은 거대한 데이터 세트에서 가치를 추출하고 해당 "학습"에 즉시 액세스할 수 있도록 합니다. 이 "전이 학습" 과정은 사전 훈련된 모델을 사용하여 다른 하위 스트림 모델에서 사용할 특징을 계산하고, 새 모델을 훈련시키고 조정하는 데 필요한 시간을 크게 줄입니다. 자세한 정보와 예시를 보려면 전이 학습을 위한 특징화 를 참조하세요.
파인튜닝을 하지 않아야 할 때
잠재적인 모델 "과적합"을 피하기 위해, 사전 훈련된 모델의 작업과 너무 비슷한 작업을 추가하거나 파인튜닝하지 마세요. 이렇게 하면 원래 데이터셋에서 일반화하는 능력을 잃을 수 있습니다. 훈련 데이터셋을 확장하면 모델의 정확도를 높일 수 있습니다.
대규모 컴퓨팅 자원에 대한 의존성을 줄이고 LLM 배포를 신뢰성 있게 사용자 정의하는 것을 쉽게 만들어 생성형 AI를 민주화하는 작업이 계속되고 있습니다. 대규모로 LLM를 세밀하게 조정하는 것은 그 의존성을 더욱 줄이기 위해 더 자동화된, 지능적인 도구를 필요로 합니다.
LoRA와 같은 발전은 과정을 간소화하며, 모델 출력을 실시간으로 교차 검증하고 성능을 자체 개선할 수 있는 외부 소스에 접근할 수 있는 더욱 지능적인 도구를 위한 길을 닦습니다.
추가적인 통합을 통해 질문을 생성하고 선별된 답변을 기반으로 세밀하게 조정함으로써, 자체 학습 데이터셋을 생성할 수 있는 LLM을 구축할 수 있습니다. 이렇게 하면 세밀하게 조정된 LLM를 기업 워크플로우에 통합하고 비즈니스 운영을 향상시키는 것이 더 쉬워집니다.
많은 사용 사례에서, 오늘날의 AI 모델은 인간 수준의 정확도에 도달하거나 그에 근접하게 수행되지만, 윤리적인 AI와 LLM 개발에서의 편향에 대한 우려는 계속되고 있으므로, 제공업체는 책임감 있는 공정한 AI 실천을 보장하는 데 전념해야 합니다.
특정 작업, 산업, 또는 데이터셋에 대해 LLM를 훈련시킬 때, 이러한 일반화된 모델의 기능을 확장합니다. 훈련, 배포, 관리, 쿼리, 모델 모니터링을 위한 통합 서비스는 모든 모델을 한 곳에서 관리하고 단일 API로 쿼리할 수 있게 해주어, 비용 효율적인 효율성, 정확성, 지속 가능성을 제공합니다.
앞으로, 다중 모달 파인튜닝의 발전은 AI 모델이 할 수 있는 것의 경계를 밀어내고 있으며, 이미지, 텍스트, 음성 등 여러 데이터 유형을 하나의 파인튜닝된 솔루션으로 통합할 수 있게 해줍니다. 파인튜닝된 AI 모델이 더욱 정확하고 효율적이며 확장 가능해짐에 따라, 이들이 비즈니스 운영에 더욱 중요해지고 모든 부문에서 더욱 널리 채택되는 것을 기대할 수 있습니다.
블로그를 구독하고 최신 게시물을 이메일로 받아보세요.