세계적으로 많은 기업은 데이터를 활용해 기업 가치를 높이고 있다. 그러나 한국은 높은 IT(Information Technology) 기술에 비해, 기업들의 데이터 분석 및 활용은 OECD 국가 중 최하위 수준이라고 평가받는다. 한국의 기업들은 비즈니스 전략을 세우기 위해 데이터를 어떻게 활용할지 고민해야 할 시점이다.
데이터 분석 및 활용을 위한 기본 원칙 두 가지
대규모 자본을 투자해서 빅데이터 시스템을 개발하는 것이 데이터를 활용해 기업 가치를 높이는데 필수적인 요소는 아니다. 데이터 분석과 활용을 위한 ‘기본’이 중요하다. 이 기본은 크게 두 가지로 나뉘는데, ‘질 좋은 데이터 확보’와 ‘기초에 충실한 통계적 사고’다. 먼저 질이 좋은 데이터란 결측 혹은 오류가 적으며, 데이터 분석가가 사용하기에 편리한 형태로 구조화된 데이터를 말한다. 고성능 컴퓨터와 고급 데이터 분석 방법론을 사용하더라도, 분석에 쓰이는 데이터 질이 좋지 않으면 좋은 분석 결과를 도출할 수 없다.
한국 기업들의 경우, 보유한 데이터 양은 많지만, 데이터에 오류와 결측치가 많고, 구조화가 돼 있지 않아 효율적으로 데이터를 분석할 수 없는 경우가 흔하다. 이런 데이터를 고급 분석 기법인 머신러닝을 활용해 분석한다고 해서 마법 같이 유용한 결과가 나오는 것은 아니다. 따라서 기업이 현재 보유한 데이터를 클리닝하는 작업과 기업 내 데이터 분석가들이 사용하기에 편리한 형태로 데이터를 구조화하는 작업이 필요하다.
‘기본’을 확보하기 위한 두 번째 요소는 기초에 충실한 통계적 분석과 사고다. 통계 분석이란 기초 통계량 산출, 극단치 파악, 변수 간 상관관계 분석, 가설 수립 및 검증 등의 일련의 과정을 의미한다. 이 과정을 통해 비즈니스에 관한 직관을 얻고, 고도화된 분석에 사용할 유용한 변수와 가설을 선별하는 것이 데이터 활용을 통한 기업 가치 제고를 위한 전제조건이다. 기초적 통계 분석도 부족한 상황에서 맹목적으로 머신러닝 기법을 도입해 기업의 밸류업(Value-up)을 도모한다는 것은 시기상조다. 우선 기초적인 통계 분석과 가설 검정부터 시작해야 한다. 양질의 데이터를 확보하고 기초적인 통계 분석을 수행할 수 있다면, 데이터를 분석하는 프로세스를 효율화해야 한다. 데이터 분석 과정 중 발생할 수 있는 오류를 줄이고 생산성을 높이기 위해서 데이터를 임포트하고, 분석한 후, 리포팅하는 과정이 통합돼 이뤄져야 한다.
많은 기업에서 이 과정들이 분리된 상태로 데이터 분석을 진행하는 경우가 많다. 이러한 프로세스는 생산성 저하로 이어지고, 분석 도중 오류가 발생할 가능성을 높인다. 비즈니스에 유용한 정보를 재생산할 때에도 높은 비용을 유발한다. 따라서 프로그램 내에서 API(Application Programming Interface) 형태로 데이터를 임포트하고, 분석을 통해 그래프와 표를 생산한 후, 리포팅까지 완료할 수 있도록 통합적인 프로세스를 구축해야 한다. 이를 통해 기업은 데이터 분석 작업 과정의 생산성을 높일 수 있다. 분석 중 발생하는 오류 또한 줄일 수 있으며, 업무 인수인계도 원활하게 할 수 있다. 무엇보다 데이터 분석을 통해 축적할 수 있는 기업 내 지적 자산을 빠르게 진화시킬 수 있다는 장점이 있다.
데이터 분석은 '외부 전문가 고용'이 아닌 '내부 산업 전문가 육성'을 통해 진행
그렇다면 이러한 데이터 분석은 누가 수행해야 할까? 기업 외부의 머신러닝 전문가 혹은 데이터 분석 전문가들이 해야 할까? 절대 그렇지 않다. 산업에 대한 이해도가 높은 내부 전문가가 데이터 분석을 진행해야 한다. 하지만 대부분의 내부 전문가들은 데이터 분석을 위한 툴(R Project 혹은 Python 등)을 활용하는 능력이 부족한 경우가 많다. 그러나 통계 분석을 진행할 수준의 툴을 활용할 수 있는 실력을 갖추는 데에는 1~2개월의 교육이면 충분하며, 오히려 데이터 분석 전문가가 새로운 사업에 대한 이해와 인사이트를 갖는 것에 훨씬 더 긴 시간이 소요된다. 따라서 기업 내 데이터 분석은 해당 분야를 잘 알고 있는 내부 도메인 전문가가 분석 툴에 대한 사용법을 배워 진행하는 것이 기업 차원에서 효율적인 방식이라고 할 수 있다.
다양한 DT 프로젝트를 운영했던 이노핏파트너스도 이런 측면에 집중하고 있고 있다. 기존 산업 또는 회사에 머물고 있었던 인재들을 먼저 ‘도메인 전문가’로 정의한다. 이 도메인 전문가는 산업과 회사에 대해선 잘 알고 있지만, DT를 추진하기 위해 테크 전문가를 만나면 당황한다. 분명히 같은 한국말을 하지만 마치 외국 사람을 만나는 것처럼 의사소통에 어려움을 겪기 때문이다.
그래서 H사의 DT 프로젝트 진행 시 비즈와 테크를 축으로 상대 측의 기본을 이해하는 학습을 먼저 진행했다. 이런 내용이 기반에 있어야 ‘기술 기반 비즈니스 혁신’을 시작할 수 있다. 데이터 기반 업무도 마찬가지다. 도메인 전문가에게 ‘데이터’라는 요소를 넣어주기 위해 단순 시스템 도입이 아닌 데이터 확보 및 통계적 사고라는 이해 기반을 먼저 학습시킬 필요가 있다. 이후 데이터와 기존 업무를 결합하는 단계가 진행된다. 이런 단계를 걸쳐 데이터, 테크 전문가와 협업해 핵심사업과 신사업에서 융합형 결과물로 혁신을 만들 수 있었다.
기업이 데이터를 활용해 비즈니스 전략을 수립하는 것은 빅데이터 시대 생존을 위한 필수적인 일이다. 그러나 한국 내 기업들의 경우 여러 이유로 데이터 활용에 어려움을 겪고 있다. 빅데이터 분석을 위한 인프라에 대규모 투자만을 단행하는 것이 능사는 아니다. 오히려 임직원들의 통계적 사고와 데이터로 얻을 수 있는 기업 내 지적 자산을 끊임없이 프로그램화하고 진화하려는 노력이 중요하다. 통계적인 사고를 바탕으로 한 기초적인 데이터 분석은 기업의 밸류업과 혁신의 시작임을 명심해야 한다.
/ (공저) 배경훈 한양대학교 경영대학 교수(이노핏파트너스 자문교수) · 김구종 이노핏파트너스 책임PM