HARDlight가 자동화된 통계 모델링, 거버넌스된 인사이트, 일일 새로고침 대시보드 및 LLM 생성 요약을 통해 실험 분석을 확장 한 방법.
작성자: Sanjay Ashok, Jack Holdsworth, Tingting Wan, Joel Dias, Richard Carr , Monika Kolodziejczyk
모바일 게임 스튜디오는 게임 플레이, 수익화 및 라이브 운영을 개선하기 위해 지속적인 실험에 의존합니다. 실험이 확장됨에 따라 분석이 종종 제한 요소가 됩니다. 결과는 종종 수동으로 취합되고, 통계적 접근 방식은 분석가마다 다르며, 주요 신호가 나타난 지 며칠 후에 인사이트가 도착합니다. 시간이 지남에 따라 이는 반복 속도 저하, 일관성 없는 결론, A/B 테스트에 대한 신뢰도 하락과 같은 마찰을 발생시킵니다.
HARDlight의 과제는 속도뿐만 아니라 신뢰였습니다. 서로 다른 접근 방식은 서로 다른 해석으로 이어져 조정이 더 어려 워지고 과학적 의사 결정 도구로서의 실험에 대한 신뢰가 약화되었습니다. 일부 이해 관계자는 간단한 일일 상태를 원했고, 다른 이해 관계자는 플레이어 행동 또는 비즈니스 영향을 이해하고 싶어했으며, 소규모 그룹은 특정 게임 레버에 대한 심층 검증을 요구했습니다. 기존 대시보드와 보고서는 이러한 모든 요구 사항을 효과적으로 충족하는 데 어려움을 겪었습니다. 실험을 확장하려면 HARDlight는 추론을 표준화하고, 다양한 수준의 깊이로 결과에 접근할 수 있도록 하고, A/B 테스트를 공유된 과학적 의사 결정 프로세스로 다시 구축할 방법을 찾아야 했습니다.
이를 해결하기 위해 HARDlight는 데이터 기반 실험 분석 프레임워크로 Databricks를 선택했습니다. 실험 데이터에서 의사결정 준비 인사이트까지의 경로를 자동화하는 Databricks 기반 A/B 테스트 분석 프레임워크를 구축했으며, 통계 분석은 반복 가능하고 투명한 방식으로 업스트림에서 수행되었습니다. Databricks AI/BI는 LLM 생성 요약으로 시작하여 점진적으로 세분화된 보기를 통해 더 깊은 탐색을 허용하는 일일 새로고침 환경을 통해 결과를 노출했습니다. 각 실험이 끝나면 결과가 고정되어 테스트가 완료된 후에도 의사 결정, 컨텍스트 및 학습 내용을 사용할 수 있도록 보장했습니다.
HARDlight의 프레임워크는 수집부터 의사 결정 지원까지 실험을 자동화합니다. Databricks 내에서 실험 정의 및 원격 측정은 표준화되고, 통계 모델링은 일관되게 적용되며, 결과는 일일 새로고침되는 계층형 대시보드에 게시됩니다. 상단의 LLM 요약은 접근 가능한 실험 상태 보기를 제공하며, 더 깊은 섹션은 전문가 사용자를 위한 KPI, 진단 및 권장 조치를 노출합니다.
Databricks를 선택하면 팀 전체에서 거버넌스와 반복 가능성을 확보할 수 있습니다. Unity Catalog는 실험 자산의 권한 및 계보에 대한 단일 제어 평면을 제공합니다. Spark Declarative Pipelines는 실험 수집 및 변환을 위한 안정적인 파이프라인을 오케스트레이션합니다. MLflow는 반복 가능한 분석을 위한 실험 추적 및 모델 패키징을 지원합니다. 이러한 기능은 함께 Lakehouse에서 데이터와 분석을 거버넌스되고 일관되며 운영하기 쉽게 유지합니다.
주요 혁신은 실행 종료 시의 “고정 대시보드”입니다. 다음 새로고침으로 이어지는 대신, 프레임워크는 최종 스냅샷과 결정된 사항, 권장 조치를 보존합니다. 이는 과거 실험의 학습 내용을 제도화하고 이해 관계자가 모호함 없이 결과를 다시 검토할 수 있도록 합니다.
실험 프레임워크는 데이터 처리, 통계 추론 및 소비를 분리하는 Databricks 기반 시스템으로 구축되었으며, 모든 출력은 기본적으로 거버넌스되고 반복 가능하게 유지됩니다. 이 설계는 운영 오버헤드를 늘리거나 팀 간의 해석을 파편화하지 않고 분석적 엄격성을 확장하도록 보장합니다.
