[스탠포드 황승진 교수님 칼럼] VMS 시스템 하나로 10,000개 벤더를 관리하는 방법

수백 개의 계약 사항을 사람이 직접 검토하고 효율적으로 관리하는 것이 가능할까요? 계약 체결 시 포함되는 약관만 해도 수십 개에 달하며, 업계별로 계약 조건이 다르기 때문에 발생하는 권리와 의무 역시 복잡하게 얽혀 있습니다.
특히, 미국의 대형 소매업체들은 수백 개에서 많게는 수천 개의 공급업체와 거래하는데요. 이처럼 방대한 계약서를 사람이 일일이 관리하는 것은 현실적으로 쉽지 않습니다.
이에 따라 실리콘밸리에서는 AI를 활용해 공급업체 관리의 효율성을 극대화하는 혁신이 빠르게 진행되고 있습니다.
이제 AI 덕분에 10,000개가 넘는 계약서를 신속하고 정확하게 분석하며, 공급업체들을 효과적으로 운영할 수 있다고 하는데요.
한국인 최초 스탠포드 종신 교수이자, 현재 스탠포드 경영 대학원 잭디프 로시니 싱 명예교수로 활동 중인 황승진 교수님의 칼럼을 통해, 실리콘밸리 기업들이 AI를 활용해 벤더 관리 시스템(VMS)을 어떻게 혁신하고 있는지 자세히 알려드리겠습니다.
AI와 10,000명의 벤더

현대 시대의 조직은 대규모 비즈니스 활동을 지원하기 위해 다양한 유형의 엔터프라이즈 시스템을 갖추고 있다. 거래 추적을 위한 ERP, 제품별 제조를 관리하는 MES, 직원 관리를 위한 HRMS, 고객 관리를 위한 CRM 등이 있다.
즉, 거래, 작업, 직원, 고객을 각각 주인공으로 하는 정보 시스템을 가지고 있다. 여기에서 눈에 띄게 빠진 것은 ‘벤더(vendor, 공급업체)’ 차원의 엔터프라이즈 시스템이다.
요즘 대형 소매업체는 쉽사리 10,000개 이상의 벤더를 가질 수 있다.
"시스템의 도움 없이 소매업체가 그 많은 벤더를 관리할 수 있을까?"라는 의문이 생긴다. 잘 관리되지 않을 것이다. 따라서 기업은 ‘벤더 관리 시스템(VMS)’이 필요하다.
VMS가 상용되지 못한 이유
그렇다면, 왜 세상에는 VMS의 상용 패키지가 지금까지 없었을까? 이유는 간단하다. 할 수 없었기 때문이다. 벤더 관리에는 남과 다른 유형의 정보 시스템이 필요하다. 비정형 계약을 다루기 때문이다.
구매 계약은 업계, 구매자, 벤더에 따라 특화되기 때문에 전통적인 관계형 DB에 데이터를 저장하고 검색하기가 어렵다.
계약에는 볼륨 할인, 조기 결제 할인, 급행 추가 요금, 반품 및 취소 조건, 지연 배송 페널티 등에 대한 수십 개의 조항이 포함될 수 있다. 30쪽 계약서에 열거된 예외규정을 회사 내 누가 읽고 기억하겠나?
VMS가 상용화되지 않아, 기업이 놓치는 숨은 비용
제품이나 산업 구조의 차이로 표준화되지 않은, 비정형적인 데이터는 PDF로 하드 드라이브에, 혹은 종이 파일로 사무실 캐비닛에 ‘안전하게’ 간직된다.
물론 아무도 읽지 않는다. 최근에서야, LLM과 벡터 DB와 같은 도구를 사용하여 이러한 데이터를 디지털화해 처리할 수 있게 되었다.
즉, AI는 서류 안에 필요한 내용을 찾아 필요한 응답을 낸다. 이는 가히 혁명적인 기능이다.
예를 들자. 우리 회사가 배송 2일 전에 주문을 취소하면 20%의 취소 수수료를 지불해야 한다. 그러나 동일 벤더가 우리 주문을 10일 늦게 배송하는 경우, 우리는 계약에 명시한 배송 지연 벌금을 받지 못하기 쉽다.
우리가 계약 조건을 엄격하게 추적하지 않기 때문이다. 이 벤더는 만 명의 벤더 중 하나일 뿐이므로 일일이 신경 쓸 여지가 없다. 몇 명의 직원이 달라붙어야 이 많은 벤더 문제를 처리할 수 있을까?
계약서를 일일이 읽으며 벤더와의 거래를 수작업으로 추적하자면 노동이 너무 많이 들어가기 때문이다. 또 지금처럼 그냥 놔둠으로써 얼마나 많은 돈을 포기해야 할까? 한 미국 소매업체는 "수천만 달러 정도"라고 답한다.
실리콘밸리에서 VMS가 주목받는 이유
실리콘밸리의 스타트 업인 P는 VMS를 개발하고 있다. 지연, 반품 또는 취소가 발생하면 VMS는 이를 알아차리고 계약과 대조하여 '차지백(chargeback, 일부 환불)'을 적용한다.
배달 즉시, 구매 계약서 구석에 “배달이 3일 이상 늦으면 5%의 차지백을 적용한다”라는 문구를 뽑아내 차지백을 청구한다. 이 구매 계약서는 10,000개의 계약서 중 하나다.
또한 리베이트 회계를 생각해 보자. 우리는 한 벤더의 구매자로써 연말까지 정해진 볼륨 이상을 구매해야만 15% 리베이트를 받는다.
12월에 목표 수치에 근접한 경우, 그냥 놔두면 리베이트를 놓친다. 허나, 우리가 그 볼륨에 도달하도록 내년 필요치를 앞당겨 지금 구입하면 회사에 이득이 될 것이다.
10,000개의 계약서 가운데 일부에 이런 조항이 있다는 것을 아는 것은 회사 내에 VMS 혼자일 것이다.
이같이 차지백과 리베이트를 챙기며 잃어버린 수천만 달러를 되찾을 것이다. 드디어 이제 벤더는 거래, 작업, 직원, 고객과 마찬가지로 주연급 관심을 받을 것이다.
LLM과 RAG를 활용한 VMS 구현 과정
그러면, LLM과 그의 일당이 어떻게 PDF 벤더 계약서에서 필요한 조항을 뽑아 올까? RAG를 생각해 보자.
1) 임베딩
먼저 임베딩이 필요하다. LLM은 단어를 실수의 벡터로 변환한다고 전에 배웠다. 흥미롭게도, 임베딩은 '문장', 문단, 문서에도 적용된다.
단어 임베딩의 경우와 마찬가지로, 의미가 유사한 문장들은 벡터 공간에서 서로 가까이 위치한다. 이러한 임베딩을 이용해 RAG를 만든다.
2) RAG 생성
먼저, PDF 파일을 LangChain에 제출한다. 파일에는 텍스트, 이미지, 비디오, 테이블이 포함될 수 있다. 다음 긴 텍스트는 청크(토막)로 나누고, 이미지나 테이블 등은 따로 떼어내 청크화 한다.
각 청크에게 텍스트 설명을 넣은 후 이를 가지고 임베딩을 만든다. 임베딩에 인덱스를 부여하고 벡터 DB에 저장된다.
이러한 단계(청크화, 임베딩, 인덱스, 저장, 검색)는 Chroma, Weaviate, Pinecone과 같은 벡터DB에 의해 관리된다. 이제 벡터 DB가 생성되었다.
3) RAG 활용
다음으로 RAG를 쓰는 과정이다. 사용자가 PDF 파일에 관련된 LLM에 쿼리를 제출한다. 이에 LLM은 벡터 DB에 정보를 요청한다.
요청은 정확한 키워드나 인덱스 대신, 질문과 관련이 있거나 유사한 청크를 두리뭉실하게 요청한다. 예로, ‘주문 취소’에 관련된 청크를 몽땅 뽑아내는 것이다.
이를 ‘의미적 검색’ 혹은 ‘유사성 검색’이라고 한다. 벡터 DB는 요청된 청크를 보내고, LLM이 이를 사용해 답변을 사용자에게 전달한다. 여기서 정보는 RAG가 내고, LLM은 언어 스킬만 제공하고 있다.
이렇게 새로운 AI는 PDF 같은 비정형 데이터에 대한 고삐를 만들었다. 이 말은 곧 기업에 많은 문서 관련 ‘자동화’의 기회가 생겼다는 얘기다. 이렇게 VMS가 생겨났다.
황 승 진
한국인 최초의 스탠포드 석좌교수
스탠포드 경영 대학원 잭디프 로시니 싱 명예교수
'알토스 벤쳐'와 ‘길리아드’ 등 20여 개 기업의 사회 이사 역임
[한국인 최초 스탠포드 종신 교수, 황승진의 인공지능 칼럼]
‘VMS 시스템 하나로 10,000개 벤더를 관리하는 방법’은 한국인 최초로 스탠포드 경영 대학원 석좌교수이자 경영 대학원 잭디프 로시니 명예교수로 임명된 황승진 교수님의 인공지능 칼럼 'AI와 10,000명의 벤더'를 이랜서에서 재편집한 글입니다.
황승진 교수님의 인공지능 칼럼은 총 20회에 걸친 시리즈로, 실리콘밸리에서 인공지능을 활용한 혁신 과정을 연재하고 있습니다.

