Thay vì setup chiến dịch khuyến mãi bằng các rule tĩnh (if-else), POC này hệ thống hóa việc sử dụng Machine Learning để tự động phân bổ ngân sách. Mô hình tính toán việc cấp phát voucher dựa trên bối cảnh (context) của người dùng để tối ưu hóa Incremental ROI.
Từ Rule-based đến Data-Driven Next Best Action
Việc thiết lập các kịch bản phát voucher hiện nay đa số vẫn dựa trên kinh nghiệm (heuristic) hoặc các rule if-else tĩnh (ví dụ: cứ có sinh nhật là tặng mã 50k, hoặc giỏ hàng trên 500k thì freeship). Cách làm này dễ dẫn đến hai trường hợp: ném tiền qua cửa sổ cho những người vốn dĩ đằng nào cũng mua, hoặc bỏ sót những khách hàng chỉ thiếu một chút "động lực" để chốt đơn.
Kiến trúc này proof-of-concept việc feed Customer Context (lịch sử mua, hành vi tương tác, CSAT) vào một Policy Network. Input là tổng budget cho phép, Output là danh sách users kèm hệ số (mệnh giá voucher tương ứng) sao cho kỳ vọng Incremental ROI đạt mức cao nhất.
Để Machine Learning model có thể "hiểu" được khách hàng, ta cần một hệ thống Feature Store được chuẩn hóa từ nhiều nguồn dữ liệu phân mảnh.
Hệ thống sử dụng Client_ID / Phone làm trung gian để kết nối (Join) toàn bộ schema rỗng ở các base khác nhau về một profile duy nhất. Việc xử lý 652k profiles nòng cốt kết hợp với logs fulfillment giúp AI nhận diện được chính xác "điểm rơi" rủi ro của từng khách hàng.
ELT pipeline gom data từ third-parties, chạy logic fuzzy matching để build Identity Graph cho mỗi Customer.
Module NLP phân tích sentiment từ transcript tổng đài/chat. Gắn cờ Churn Risk (Nguy cơ rời bỏ) nếu tỉ lệ negative sentiment vượt threshold.
Khi request cấp ngân sách hạ tầng (VD: 10M VND) được ban hành, Model sẽ tính toán expected LTV (Life-time value) và distribute budget theo trọng số tìm được nhằm max out ROI.
Thu thập impression logs và redemption logs (user có click/sử dụng không) đẩy vào Message broker, dùng làm ground-truth để update lại model.
Self-adjusting Mechanism (Cơ chế tự hiệu chỉnh)
Một mô hình không có feedback loop chỉ là một mô hình tĩnh. Ứng dụng concept của Reinforcement Learning, hệ thống map các tương tác của user thành dạng Reward để feed ngược lại lúc training.
Tại sao cần 360? Model không thể ra quyết định nếu thiếu context. Việc gom dữ liệu từ Web, App, Zalo, Call Center giúp AI hiểu được user không chỉ qua mã đơn hàng mà qua Feature Store đa chiều (ví dụ: đang có phàn nàn chưa giải quyết, tỷ lệ vào app xem nhưng không mua đang tăng đột biến). 360 là Single Source of Truth cung cấp input đủ sâu cho inference.
AI không dự báo dựa trên cảm tính. Hệ thống trích xuất các Feature Vectors từ Customer 360 để tính toán và bẻ lái ngân sách dựa trên các signals trọng yếu:
AI kết hợp last order và last visit để định vị độ trễ nhu cầu.
Phân tích sentiment call center để detect KH sắp rời bỏ (High Risk).
Lọc nhóm chỉ mua khi có mã để tối ưu mệnh giá voucher tối thiểu.
Dự báo giá trị vòng đời để ưu tiên ngân sách cho nhóm "High Growth".
Đo lường mức độ gắn bó với thương hiệu thông qua tần suất đóng góp feedback.
Xác định chu kỳ mua sắm lặp lại để phát voucher vào đúng "điểm rơi".
Điểm tương tác trên Zalo/FB để xác định kênh deliver voucher hiệu quả nhất.
Nhận diện hành vi săn mã (Abuse) để loại bỏ các user trục lợi chính sách.
Dự báo sản phẩm tiếp theo user quan tâm để đính kèm vào voucher gợi ý.
Trước khi chọn cá nhân, AI thực hiện bước Strategic Bucketing để chia nhỏ ngân sách tổng thành các "túi tiền" mục tiêu:
| Group Strategic Weight | Budget Split |
|---|---|
| Churn Prevention | 50% (High Priority) |
| Win-back Dormant | 30% (Growth) |
| VIP Upsell | 20% (Loyalty) |
Sau mỗi đợt, hệ thống thực hiện đối soát Burn-rate và ROI thực tế để retrain model.
Đối soát mã từ fulfillment logs để khớp danh sách đã phát với thực tế.
Đo lường Incremental Lift so với nhóm đối chứng (Control Group).
Điều phối lấy dữ liệu định kỳ từ các nguồn: Web Events, Mobile App, ERP, CRM, Call Center.
Lưu trữ tập trung khối lượng lớn dữ liệu raw & customer 360 với hiệu năng query cực cao.
Xử lý dữ liệu thô, tính toán các Features (Recency, LTV, Sentiment). Sau đó thuật toán đánh trọng số (Weighting) khởi chạy để chấm điểm.
Phân bổ Customer vào các chương trình (Campaigns) nhằm tối đa hóa khả năng sinh lời hoặc chuyển đổi dựa trên ngân sách.
Đưa kết quả Policy hiển thị lên WebUI. Tích hợp API sang Chotdon.ai để tạo Segments và triển khai Campaigns tự động.
Hệ thống ghi nhận Logs (Redemption, Increment Lift). Engine tự cập nhật chỉ số và tự điều chỉnh độ nhạy cho các đợt tiếp theo.
Tránh việc cấp voucher cho khách đằng nào cũng mua bằng cách sử dụng Control Group và đo lường Increment Lift thay vì Conversion Rate thuần túy.
Monitor sự thay đổi của features giữa các mùa lễ hội (sale mùa tết vs ngày thường) để tự động trigger retrain model với time-window ngắn hơn.
Trước khi chọn cá nhân, Manager/AI chia 5tr thành các "túi tiền" mục tiêu để bảo vệ chiến lược:
Sau khi ngân sách được "đóng gói", AI chạy $S = Σw_ix_i$ trong nội bộ từng nhóm để tìm ra KH xứng đáng dựa trên Threshold = 0.75.
Cơ chế xác định ngưỡng (Threshold determination):
AI simulator sắp xếp 10k KH theo Score. Hệ thống duyệt danh sách và dừng lại khi tổng Budget chạm ngưỡng 5tr. Score của người cuối cùng là điểm cắt ROI (Threshold). KH dưới điểm này sẽ bị bỏ qua để bảo vệ ngân sách.
Phát Voucher 50k từ túi Churn Prev.
Bị loại do Score thấp & rủi ro Fraud cao.
Sau 48h vận hành, AI nhận thấy tỷ lệ Redemption (đổi mã) cao nhưng giá trị giỏ hàng (AOV) của nhóm được ưu tiên lại thấp → Burn-rate vượt ngưỡng an toàn.
Siết chặt tiêu chí chọn khách để ưu tiên những profile cực kỳ tiềm năng.
Tăng trọng số giá trị vòng đời để bù đắp chi phí phát voucher.
Model không thể detect được "Rủi ro Churn" nếu chỉ nhìn vào log đơn hàng. Việc móc nối transcript phàn nàn từ Call Center (qua NLP) vào user profile là signals quan trọng nhất để predict user drop-off sớm.