AI 에이전트 는 신기한 존재에서 필수적인 존재로 진화하고 있습니다. 단순한 자동화 및 채팅 기반 어시스턴트로 시작된 것이 환경을 관찰하고, 다음에 할 일을 결정하며, 실제 워크플로 전반에 걸쳐 조치를 취하는 시스템으로 진화하고 있습니다. 이러한 에이전트는 작업을 실행하고, 도구를 호출하며, 시스템을 업데이트하고, 한때 인간의 판단이 필요했던 결정에 영향을 미칩니다.
AI 시스템이 조치를 취함에 따라 그 중요성도 커집니다. 오류는 다운스트림 시스템으로 연쇄적으로 퍼져 추적하거나 되돌리기 어려운 결과를 낳을 수 있습니다. 이러한 변화로 인해 에이전트 AI는 시스템 설계 과제가 되었으며, 팀은 자율성, 제어, 안정성, 거버넌스에 대해 더 일찍부터 생각해야 합니다.
동시에 AI 에이전트를 둘러싼 용어가 혼란스러워졌습니다. 자료에 따라 에이전트 유형은 4가지, 5가지, 또는 7가지로 나뉘는데, 이는 종종 견고한 설계 원칙보다 트렌드를 반영합니다. 이 가이드는 실용적인 관점을 취합니다. 이 가이드는 또 다른 분류 체계를 소개하기보다는 AI 에이전트를 이해하기 위한 안정적인 프레임워크에 초점을 맞추고, 이를 사용하여 장단점을 추론하고, 과도한 엔지니어링을 피하며, 당면한 문제에 적합한 에이전트를 선택하도록 돕습니다.
AI 에이전트가 중요한 이유는 AI 시스템이 더 이상 분석이나 콘텐츠 생성에만 국한되지 않기 때문입니다. 워크플로에 직접 참여하는 경우가 점점 더 많아지고 있습니다. 다음에 무엇을 할지 결정하고, 도구를 호출하고, 다운스트림 프로세스를 트리거하며, 컨텍스트에 따라 행동을 조정합니다. 간단히 말해, 행동하는 것입니다.
AI 시스템이 일단 작동하면 그 영향력은 복합적으로 작용합니다. 단 하나의 결정이 여러 시스템, 데이터 소스 또는 사용자에게 영향을 미칠 수 있습니다. 오류가 더 빨리 전파되며 의도하지 않은 동작을 되돌리기가 더 어렵습니다. 이것이 바로 에이전틱 AI가 이전 세대의 AI 애플리케이션과 구별되는 점입니다.
결과적으로 팀들은 AI가 아키텍처의 어느 부분에 적합한지 재고하고 있습니다. 에이전트는 소프트웨어 로직과 의사 결정 사이의 경계를 모호하게 만들어 조직이 이전보다 훨씬 더 일찍 안정성, 감독 및 제어 문제를 해결하도록 합니다.
분류의 가치는 실제 설계 선택에서 드러납니 다. 에이전트 유형은 추상적인 레이블이 아닙니다. 이 유형은 의사 결정 방식, 컨텍스트 유지 정도, 필요한 행동 예측 가능성 수준에 대한 가정을 인코딩합니다. 에이전트 유형을 선택하는 것은 일련의 상충 관계(trade-off)를 선택하는 것입니다.
반사 기반 에이전트는 속도와 결정성을 우선시합니다. 학습 에이전트는 시간이 지남에 따라 적응하지만 불확실성과 운영 비용을 초래합니다. 명확한 프레임워크가 없으면 팀은 문제가 요구하지 않더라도 사용 가능한 가장 강력한 옵션을 default로 설정하는 경우가 많습니다.
분류는 이러한 결정에 대한 공통 언어를 제공합니다. 이를 통해 팀은 기대치를 조정하고, 실패 모드를 추론하며, 오버엔지니어링을 방지할 수 있습니다. 새로운 도구와 레이블로 가득한 빠르게 변화하는 환경에서 안정적인 정신 모델을 통해 실무자는 반응적으로가 아닌 의도적으로 에이전트 시스템을 설계할 수 있습니다.
AI 에이전트는 환경에 존재하며 인식과 행동을 통해 환경과 상호작용합니다. 인식에는 센서 데이터, 시스템 이벤트, 사용자 입력 또는 쿼리 결과와 같은 신호가 포함됩니다. 행동은 API 호출에서 다운스트림 프로세스 Trigger에 이르기까지 다음에 일어날 일에 영향을 미칠 수 있는 에이전트가 수행할 수 있는 운영입니다.
인식과 행동 사이에는 상태가 존재합니다. 일부 에이전트는 현재 입력에만 의존하는 반면, 다른 에이전트는 과거의 관찰이나 추론된 컨텍스트를 요약하는 내부 상태를 유지합니다. 효과적인 에이전트 설계는 환경 자체에서 시작됩니다. 완전 관찰 가능하고 안정적인 환경은 더 간단한 설계를 보상하는 반면, 부분적으로 관찰 가능하거나 노이즈가 많은 환경에서는 안정적으로 작동하기 위해 메모리나 내부 모델이 필요한 경우가 많습니다.
자율성은 에이전트가 무엇을 언제 할지 결정하는 데 있어 얼마나 많은 자유를 갖는지를 나타냅니다. 관찰을 행동에 매핑하는 규칙, 계획 또는 학습된 정책과 같은 에이전트의 결정 로직은 그 자유가 어떻게 행사되는지를 결정합니다. 일부 에이전트는 입력에 대한 응답으로 사전 정의된 행동을 실행하는 반면, 다른 에이전트는 목표를 선택하고, 행동을 계획하며, 작업이 완료되는 시점을 결정합니다. 자율성은 입력에 직접 반응하는 저수준 에이전트부터 시간이 지남에 따라 계획, 최적화 또는 학습하는 고수준 에이전트까지 스펙트럼상에 존재합니다.
목표와 학습은 유연성을 높이지만 복잡성도 더합니다. 목표 기반 에이전트는 상황이 변함에 따라 계획을 조정해야 합니다. 학습 에이전트는 동작이 진화함에 따라 지속적인 훈련과 평가가 필요합니다. 자율성을 높이는 각 단계는 예측 가능성을 포기하고 적응성을 얻게 되므로, 프로덕션 환경에서 이해 가능하고 신뢰할 수 있는 상태를 유지하는 에이전트를 구축하려면 명확한 경계를 설정하는 것이 필수적입니다.
5가지 핵심 AI 에이전트 유형은 에이전트가 다음에 할 일을 결정하는 5가지 기본적인 방식, 즉 입력에 반응하기, 내부 상태 유지하기, 목표를 향해 계획하기, 상충 관계 최적화하기, 경험을 통해 학습하기를 설명합니다. 이 프레임워크는 특정 기술이 아닌 의사 결정 행동을 설명하기 때문에 계속 유지됩니다. 에이전트가 사용하는 도구나 수행하는 역할이 아니라, 에이전트가 어떻게 반응하고, 추론하고, 최적화하고, 적응하는지에 초점을 맞춤으로써, 이 프레임워크는 대규모 언어 모델, 오케스트레이션 레이어, 외부 도구로 구축된 최신 시스템에도 계속 적용됩니다.
단순 반사 에이전트는 직접적인 조건-행동 규칙을 사용하여 작동합니다. 특정 입력 패턴이 감지되면 에이전트는 미리 정의된 응답을 실행합니다. 과거 이벤트에 대한 메모리도, 환경에 대한 내부 모델도, 미래 결과에 대한 추론도 없습니다. 이러한 단순성 덕분에 반사 에이전트는 빠르고 예측 가능하며 테스트 및 검증이 용이합니다.
반사 에이전트는 조건이 거의 변하지 않는 완전히 관찰 가능하고 안정적인 환경에서 가장 잘 작동합니다. 반사 에이전트는 유연성보다 안전성과 결정성이 더 중요한 모니터링, 경고, 제어 시스템에서 여전히 흔히 사용됩니다. 이러한 에이전트의 한계는 취약성입니다. 즉, 입력이 불규칙하거나 불완전할 때 에이전트에 컨텍스트 상태가 없어서 갑자기 동작이 실패할 수 있습니다.
모델 기반 반사 에이전트는 환경의 내부 표현을 유지하여 단순 반사 에이전트를 확장합니다. 이 내부 상태를 통해 에이전트는 직접 관찰할 수 없는 세계의 측면에 대해 추론할 수 있습니다. 결정은 규칙 기반으로 유지되지만, 이러한 규칙은 원시 입력만으로 작동하는 것이 아니라 추론된 컨텍스트를 기반으로 작동합니다.
이 접근 방식은 부분적으로 관찰 가능하거나 동적인 환경에서 견고성을 향상시킵니다. 많은 실제 시스템은 학습의 예측 불가능성을 도입하지 않고 신뢰성과 적응성의 균형을 맞추기 위해 모델 기반 반사 행동에 의존합니다.
목표 기반 에이전트는 원하는 결과를 나타내고 시스템이 해당 목표에 더 가까워지는지에 따라 행동을 평가합니다. 이러한 에이전트는 즉각적으로 반응하기보다는 일련의 행동을 계획하고 장애물이 발생하면 조정합니다. 계획을 통해 유연성을 확보하고 더 장기적인 관점에서 더 복잡한 행동을 지원할 수 있습니다.
계획은 또한 비용과 취약성을 야기합니다. 목표는 명확하게 정의되어야 하며, 계획은 환경이 어떻게 작동하는지에 대한 가정에 따라 달라집니다. 빠르게 변화하는 환경에서는 계획에 잦은 수정이나 폴백 로직이 필요한 경우가 많습니다. 목표 기반 에이전트는 강력하지만 불필요한 복잡성을 피하기 위해 신중한 설계 원칙이 필요합니다.
효용 기반 에이전트는 성공을 이진법적으로 처리하는 대신 결과에 가치를 할당하여 목표 기반 추론을 구체화합니다. 행동은 기대 효용을 기반으로 선택되므로 에이전트는 속도, 정확성, 비용 또는 위험과 같은 상충되는 목표의 균형을 맞출 수 있습니다.
효용 기반 에이전트의 강점은 투명성입니다. 우선순위를 직접 인코딩함으로써 휴리스틱에 숨겨져 있을 수 있는 의사 결정 로직을 노출합니다. 과제는 실제 세계의 우선순위를 반영하는 효용 함수를 정의하는 데 있습니다. 잘못 지정된 유틸리티는 기술적으로는 최적이지만 바람직하지 않은 행동으로 이어질 수 있습니다.
학습 에이전트는 환경으로부터의 피드백을 통합하여 시간이 지남에 따라 행동을 개선합니다. 이러한 피드백은 레이블이 있는 데이터, 보상, 페널티 또는 암시적 신호에서 비롯될 수 있습니다. 학습을 통해 에 이전트는 고정된 규칙으로 명시적으로 모델링하기에는 너무 복잡하거나 예측 불가능한 환경에 적응할 수 있습니다.
동시에 학습은 불확실성을 야기합니다. 행동은 진화하고, 성능은 drift될 수 있으며, 결과는 예측하기 더 어려워집니다. 학습 에이전트는 적응성이 필수적이고 팀이 해당 복잡성을 관리할 준비가 되어 있을 때 가장 잘 사용됩니다.
AI 에이전트가 더 크고 복잡한 문제에 적용되면서 단일 에이전트 설계만으로는 부족한 경우가 많습니다. 다중 에이전트 시스템은 서로 상호작용하는 여러 에이전트에게 의사 결정을 분산합니다. 이러한 에이전트는 공유된 목표를 위해 협력하거나, 리소스를 놓고 경쟁하거나, 분산된 환경 내에서 독립적으로 작동할 수 있습니다. 이 접근 방식은 작업을 분해하거나 병렬화할 수 있을 때 유용합니다.
절충점은 조정입니다. 에이전트 수가 증가함에 따라 충돌하는 행동, 일관성 없는 상태, 의도하지 않은 돌발 행동의 위험이 증가하므로 안정성과 예측 가능성을 위해 명확한 커뮤니케이션 및 조정 메커니즘이 필수적입니다.
계층적 에이전트는 제어를 계층화하여 구조를 추가합니다. 상위 수준 에이전트는 계획을 세우고 목표를 분해하거나 감독을 제공하는 반면, 하위 수준 에이전트는 실행에 집중합니다. 이러한 감독자-하위 에이전트 패턴은 전략적 의사 결정과 운영적 의사 결정을 분리하여 복잡성을 관리하는 데 도움이 됩니다.
계층 구조는 명확성과 제어력을 향상시킬 수 있지만, 종속성을 야기하기도 합니다. 계층 간의 책임이 제대로 정의되지 않으면 상위 계층의 실패나 잘못된 가정이 시스템 전체에 연쇄적으로 영향을 미칠 수 있습니다.
대부분의 프로덕션 에이전트는 하이브리드입니다. 속도와 안전을 위한 반사 행동, 유연성을 위한 계획, 적응을 위한 학습을 결합합니다. 이러한 혼합 접근 방식을 통해 시스템은 조건이 변경될 때 안정성과 응답성의 균형을 맞출 수 있습니다.
최근의 많은 레이블은 행동보다는 기능적 역할을 설명합니다. 고객 에이전트, 코드 에이전트, 크리에이티브 에이전트 또는 데이터 에이전트와 같은 용어는 에이전트가 어떻게 결정하는지가 아니라 무엇을 하는지를 설명합니다. LLM 기반 에이전트, 워크플로 에이전트, 도구 사용 에이전트와 같은 트렌드는 새로운 인터페이스와 기능을 반영하지만, 여전히 고전적인 에이전트 행동을 통해 가장 잘 이해할 수 있습니다.
AI 에이전트 유형을 선택할 때는 도구가 아닌 문제에서부터 시작해야 합니다. 에이전트 설계마다 예측 가능성, 제어 및 위험 수준이 다르게 가정됩니다. 이러한 가정이 현실과 일치하지 않으면 정교한 에이전트조차 진단하기 어려운 방식으로 실패합니다.
매우 반복적이고 잘 정의된 작업은 일반적으로 더 간단한 에이전트를 사용하는 것이 좋습니다. 작업이 더 개방적이 되거나 시퀀싱이 필요해짐에 따라 목표 기반 또는 유틸리티 기반 에이전트가 더 적합해집니다. 흔한 실수는 복잡성이 자동적으로 학습을 필요로 한다고 가정하는 것입니다.
환경의 역학도 마찬가지로 중요합니다. 안정적인 환경에서는 더 단순한 에이전트가 오랫동안 효과적일 수 있습니다. 동적 환경에서는 적응성이 중요해지지만, 이는 피드백 루프와 감독이 있을 때만 해당됩니다. 해석 가능성은 또 다른 제약 조건입니다. 결정을 설명하거나 감사해야 하는 경우 예측 가능한 행동이 유연성보다 더 중요한 경우가 많습니다.
학습 에이전트는 명시적인 규칙이 비현실적이거나 성능이 경험을 통해서만 나타나는 패턴에 의존할 때 가장 유용합니다. 개인화 및 강화 학습 시나리오 가 종종 이 범주에 속합니다.
그러한 적응성에는 대가가 따릅니다. 학습은 운영 오버헤드와 진화하는 행동을 야기하여 테스트와 거버넌스를 복잡하게 만듭니다. 대체로 안정적인 환경에서 학습은 의미 있는 이점 없이 위험을 가중시킬 수 있습니다.
실용적인 휴리스틱은 이러한 상충 관계를 명확히 하는 데 도움이 됩니다. 규칙을 명확하게 정의할 수 있다면 학습시키지 마세요. 목표를 명확하게 정의할 수 있다면 최적화하지 마세요. 유틸리티를 명확하게 정의할 수 있다면 신중하게 최적화하세요. 학습은 기본값이 아니라 신중한 선택이어야 합니다.
부적합의 경고 신호로는 불안정한 출력, 과도한 재학습 주기, 불분명한 실패 모드, 에이전트가 특정 방식으로 행동한 이유를 설명하기 어려운 점 등이 있습니다. 이러한 증상은 기본 모델이나 도구 자체의 결함이라기보다는 에이전트 유형이 문제와 맞지 않음을 나타내는 경우가 많습니다.
AI 에이전트 유형은 실제로 해결하는 문제를 통해 가장 쉽게 이해할 수 있습니다. 반사 에이전트는 속도와 예측 가능성이 가장 중요한 자동화 및 제어 시스템에서 여전히 기본입니다. 단순한 조건-행동 행동은 응답이 즉각적이고 일관되어야 하므로 경고 및 모니터링 워크플로의 기반이 됩니다.
모델 기반 반사 에이전트는 이 패턴을 불완전하거나 지연된 정보가 있는 환경으로 확장합니다. 에이전트는 내부 상태를 유지함으로써 원시 입력 이상의 상황을 추론해야 하는 로보틱스, 내비게이션, 장기 실행 소프트웨어 워크플로와 같은 도메인에서 더 강력한 동작을 지원합니다.
목표 기반 에이전트는 계획 및 조정 시나리오에서 흔히 사용됩니다. 작업 스케줄링, 태스크 시퀀싱 또는 다단계 프로세스를 통한 요청 라우팅은 특히 목표가 명확하고 환경 가정이 안정적으로 유지될 때 미래 상태에 대해 추론하는 에이전트를 통해 이점을 얻습니다.
유틸리티 기반 에이전트는 추천 시스템 및 리소스 할당과 같은 최적화 중심 애플리케이션에서 주로 사용됩니다. 유틸리티 함수는 상충 관계를 명시적으로 만들어 이러한 시스템이 경쟁 목표의 균형을 맞추고 더 투명하게 조정 및 평가될 수 있도록 합니다.
학습 에이전트는 시간이 지남에 따라 패턴이 진화하는 적응형 의사 결정 시스템의 기반이 됩니다. 정적 규칙이 무너질 때 유용해지지만, 신뢰도를 유지하기 위해서는 지속적인 평가와 재훈련도 필요합니다.
비즈니스 및 분석 워크플로에서 최신 에이전트 시스템은 여러 접근 방식을 점점 더 많이 결합하고 있습니다. 에이전트는 쿼리를 계획하고, 도구를 선택하고, 데이터를 검색하고, 다운스트림 작업을 트리거할 수 있습니다. 소프트웨어 개발 워크플로에서 에이전트는 대규모 코드베이스 탐색, 테스트 실행, 변경 사항 제안 또는 시스템 전반의 풀 리퀘스트 조정과 같은 작업을 점점 더 많이 지원하고 있습니다. 이 단계에서는 관찰 가능성, 거버넌스, 제어가 영리한 행동보다 더 중요합니다. 특히 프로덕션 AI 에이전트 거버넌스 및 확장 이 나중에 고려할 사항이 아닌 필수 사항이 될 때는 더욱 그렇습니다.
AI 에이전트 목록은 서로 다른 질문에 답하기 때문에 종종 다릅니다. 일부 프레임워크는 의사 결정 행동에 따라 에이전트를 분류하고, 다른 프레임워크는 시스템 아키텍처에 따라, 또 다른 프레임워크는 애플리케이션 역할에 따라 분류합니다. 이러한 관점이 혼합되면 명확성을 더하지 못한 채 '유형'의 수만 빠르게 증가합니다.
이러한 혼란은 '빅 4 에이전트'와 같은 마케팅 중심의 레이블이나 코딩 에이전트 또는 고객 에이전트와 같은 역할 기반 용어로 인해 더욱 가중됩니다. 이러한 레이블은 에이전트가 어떻게 결정하고 행동하는지가 아니라 어떻게 포지셔닝되는지를 설명하므로 비교를 오해의 소지가 있게 만듭니다.
더 많은 자율성이 자동으로 더 나은 시스템을 만든다는 것은 또 다른 흔한 오해입니다. 실제로 자율성이 높아지면 거의 항상 추가적인 복잡성이 발생합니다. 자율성이 높은 에이전트는 테스트, 예측, 제약하기가 더 어렵습니다. 많은 사용 사례에서 단순한 에이전트가 더 발전된 에이전트보다 성능이 뛰어난데, 이는 그들의 행동을 추론하고 제어하기가 더 쉽기 때문입니다.
학습 에이전트는 그 자체로 위험을 초래합니다. 시간이 지남에 따라 행동이 진화하면서 특히 데이터 품질이 저하되거나 피드백 루프가 형성될 때 결과가 예측 불가능해질 수 있습니다. 재훈련, 평가, 모니터링과 같은 지속적인 유지 관리 오버헤드 또한 초기 실험 단계에서 과소평가되는 경우가 많습니다.
지능에 대한 오해는 문제를 더욱 복잡하게 만듭니다. 지능적으로 보이는 에이전트는 정교한 추론보다는 구조, 제약 조건, 신중한 설계에 더 많이 의존하는 경우가 많습니다. 효과적인 에이전트 설계는 자율성이나 지능을 극대화하는 것이 아니라 제어, 유연성, 비용의 균형을 맞추는 것입니다. 이러한 절충점을 명확히 하는 팀은 시간이 지나면서 프로덕션에서 성공하는 에이전트를 구축할 가능성이 훨씬 더 높습니다.
에이전틱 AI는 빠르게 발전하고 있지만 그 방향은 더욱 명확해지고 있습니다. 대규모 언어 모델은 에이전트가 추론하고, 도구와 상호작용하고, 비정형 입력을 처리하는 방식을 변화시켜 에이전트를 더욱 유연하고 표현력 있게 만들고 있습니다. 그들이 바꾸지 않는 것은 에이전트 행동을 형성하는 근본적인 상충 관계입니다.
가장 성공적인 시스템은 설계상 하이브리드 방식이 될 것입니다. 반사 메커니즘은 안전성과 응답성을 위해 계속 필수적이며, 계획 및 유틸리티 기반 추론은 조정과 최적화를 지원하고, 학습은 적응성이 정말로 필요한 곳에 선택적으로 적용될 것입니다. 성공하는 팀은 작게 시작하고 범위를 제한하며 실제 피드백을 기반으로 점진적으로 확장하는 경향이 있습니다.
이 모든 빠른 혁신에도 불구하고 핵심 수업은 동일합니다. AI 에이전트의 기본 유형을 이해하면 팀이 명확하게 추론하고, 신중하게 선택하며, 불필요한 복잡성을 피하는 데 도움이 됩니다. 도구는 진화하겠지만, 건전한 에이전트 설계는 어떤 시스템이 프로덕션에서 작동하고 어떤 시스템이 작동하지 않을지를 계속 결정할 것입니다.
Databricks Agent Bricks와 같이 일반적인 AI 사용 사례를 위해 도메인별 고품질 AI 에이전트 시스템을 빌드하고 최적화하는 간단한 접근 방식을 제공하는 플랫폼이 있습니다. 사용 사례와 데이터를 지정하면 Agent Bricks가 자동으로 여러 AI 에이전트 시스템을 빌드하여 추가로 구체화할 수 있습니다.
Mosaic AI Agent Framework와 MLflow는 Python으로 엔터프라이즈급 에이전트를 작성하는 데 도움이 되는 도구를 제공합니다.
Databricks는 LangGraph/LangChain, LlamaIndex와 같은 타사 에이전트 작성 라이브러리 또는 사용자 지정 Python 구현을 사용한 에이전트 작성을 지원합니다.
AI Playground는 Databricks에서 에이전트를 만드는 가장 쉬운 방법입니다. AI Playground를 사용하면 다양한 LLM 중에서 선택하고 로우코드 UI를 사용하여 LLM에 도구를 빠르게 추가할 수 있습 니다. 그런 다음 에이전트와 채팅하여 응답을 테스트한 후, 배포 또는 추가 개발을 위해 에이전트를 코드로 내보낼 수 있습니다.
Databricks Data Intelligence Platform의 일부인 Agent Bricks는 일반적인 엔터프라이즈 사용 사례에 최적화된 여러 유형의 프로덕션 등급 AI 에이전트를 빌드하는 데 사용할 수 있습니다. 지원되는 기본 에이전트 유형은 다음과 같습니다.
(이 글은 AI의 도움을 받아 번역되었습니다. 원문이 궁금하시다면 여기를 클릭해 주세요)
