BLOG // 0x626c6f67
4 min readFars AI Teamวิเคราะห์ข้อมูล deployment จริงกว่า 200 รายการ — ตลาด AI Agent โตจริง ช่องว่างงานที่ยังทำมืออยู่นั้นมหาศาล แต่ 95% ของโปรเจกต์ไม่รอดถึง production และเหตุผลไม่ใช่เรื่องเทคนิค
การสนทนาเรื่อง AI Agent ในปี 2025 มักเริ่มและจบที่ตัวเลขเดียวกัน: ตลาดกำลังโตจาก 2.8 แสนล้านบาทไปสู่ 1.8 ล้านล้านบาทภายในปี 2030 ช่องว่างระหว่างงานที่ ควรจะ automate กับงานที่ถูก automate จริงนั้นกว้างพอที่จะเป็นโอกาสทางธุรกิจต่อเนื่องอีกนานหลายปี
แต่ตัวเลขที่น่าสนใจกว่าไม่ใช่ขนาดตลาด
มันคือ 428% กับ 198%
จากการวิเคราะห์ B2B AI deployment จริง 200 รายการ โปรเจกต์ที่ลงทุนต่ำกว่า 5.5 แสนบาท ได้ผลตอบแทนMedian 428% โปรเจกต์ระดับ Enterprise ที่ลงทุนกว่า 3.5 ล้านบาท ได้ 198% — ต่ำกว่าสองเท่า
คำถามที่ควรถามไม่ใช่ "AI Agent มีโอกาสไหม?" แต่คือ ทำไมลงทุนมากกว่าถึงได้ผลน้อยกว่า?
เมื่อมองข้อมูล adoption รวมกัน ภาพที่ชัดที่สุดไม่ใช่เรื่องการเติบโต — แต่เป็นช่องว่างระหว่าง awareness กับ actual usage ที่กว้างกว่าที่ตัวเลขตลาดจะบอกได้
| ตัวชี้วัด | ตัวเลข |
|---|---|
| SMB AI adoption ปี 2024 → 2025 | 39% → 55% |
| SMB finance teams ที่ "กำลังสำรวจ" AI | 77% |
| SMB finance teams ที่ใช้จริง | 10% |
| Finance teams ที่ยังใช้ spreadsheet มือสำหรับ invoicing | 95% |
| โปรเจกต์ AI agent ที่ไม่ถึง production หรือไม่ได้ ROI | ~95% |
| True autonomous agents ใน enterprise จริง (2025) | <5% |
| โปรเจกต์ที่คาดว่าจะถูกยกเลิกภายในปี 2027 | ~40% |
ตัวเลข 77% vs 10% คือภาพที่คุ้นเคย — ช่องว่างระหว่างสิ่งที่องค์กร บอกว่า กำลังทำกับสิ่งที่เกิดขึ้นจริง แต่ตัวเลขที่สำคัญกว่าคือ 95% ทั้งสองตัว: 95% ของ finance teams ยังนับตัวเลขมือ และ 95% ของโปรเจกต์ที่พยายามจะแก้ปัญหานี้ล้มเหลวก่อนถึง production
ช่องว่างระหว่างงานที่ควรจะ automate กับงานที่ถูก automate จริงนั้นมีอยู่จริง — แต่เหตุที่มันยังเปิดอยู่ไม่ใช่เพราะขาดเครื่องมือ หรือขาดเงินลงทุน
จากข้อมูล deployment และงานวิจัยด้าน production failure โปรเจกต์ไม่ได้ล้มเหลวเพราะ AI ไม่ดีพอ แต่เพราะสี่กลไกที่เกิดซ้ำแล้วซ้ำเล่า — และมักถูก diagnose ผิดว่าเป็น "ปัญหาของโมเดล"
ในปี 2025 true autonomous agents — ระบบที่ reason และวางแผน multi-step action ได้อย่างอิสระ — มีอยู่จริงน้อยกว่า 5% ของ enterprise applications สิ่งที่ทำงานได้จริงใน production คือ deterministic workflow: automation ที่มีโครงสร้างชัดเจน ทำนายได้ และ audit ได้
ทีมส่วนใหญ่สร้าง "ตัวแทน AI" ที่ฟังดูน่าประทับใจใน demo — แต่ล้มเหลวเมื่อ edge case แรกที่ไม่ได้คาดไว้เข้ามา ทีมที่ส่ง workflow ที่เชื่อถือได้เข้า production ชนะทีมที่ส่ง architecture ที่ซับซ้อนแต่เปราะบางเสมอ
เมื่อให้ข้อมูลกับ agent มากเกินไปในคราวเดียว — wiki ทั้งองค์กร, CRM database ทั้งหมด — งานวิจัยพบ failure pattern ที่เรียกว่า "Lost in the Middle": model เริ่มละเลย instruction ที่อยู่กลาง context window และตัดสินใจบนข้อมูลบางส่วน ไม่ใช่ข้อมูลทั้งหมด
ระบบ production ที่ทำงานได้จริงต้องการ data management ที่มีวินัย ไม่ใช่แค่การใส่ข้อมูลทั้งหมดเข้าไปแล้วหวังผล
Agent มักเข้าสู่ recursive loop — เรียก API เดิมซ้ำ ตรวจสอบ status เดิมซ้ำ โดยที่ system log แสดง response "200 OK" ปกติ ระบบดูปกติจากภายนอก ขณะที่ล้มเหลวโดยสิ้นเชิงข้างใน
นี่คือเหตุที่นักพัฒนาที่มีประสบการณ์ใช้เวลาส่วนใหญ่กับ error handling และ observability infrastructure — ไม่ใช่ agent logic
ใน multi-agent systems ความผิดพลาดใน component หนึ่งแพร่กระจายข้ามทั้ง workflow งานวิจัยพบว่า 32% ของ workflow failures พบ error ที่ component ที่ต่างออกไปจากต้นตอจริง การ debug ซับซ้อนกว่าที่คาดการณ์ไว้เสมอ และนี่คือจุดที่โปรเจกต์ที่มีความทะเยอทะยานสูงส่วนใหญ่ตาย
มีตัวเลขหนึ่งที่แทบไม่ถูกพูดถึงในการเสนอโปรเจกต์ AI: ต้นทุนรวมตลอดอายุการใช้งาน
ข้อมูลจากการวิเคราะห์ระยะยาวชี้ว่าภายใน 2-3 ปี ต้นทุนจริงของการ own และ maintain ระบบ AI มักสูงถึง 2-3 เท่าของค่าพัฒนาครั้งแรก — รวม maintenance, model updates, performance monitoring, และการ integrate กับ third-party system ที่เปลี่ยนไปตามเวลา
นักวิเคราะห์ประมาณการว่า ~40% ของโปรเจกต์ agentic AI ที่อยู่ในระหว่างดำเนินการจะถูกยกเลิกภายในปี 2027 เมื่อองค์กรเริ่มวัด ROI จริงแทนที่จะดูแค่ demo
หมายเหตุจากผู้เขียน: ตัวเลข 40% ฟังดูสูง แต่จากประสบการณ์ Consulting กับองค์กรไทย เราเห็นรูปแบบนี้ซ้ำกัน: โปรเจกต์ที่ขายบน demo ที่ดู impressive มักไม่ผ่านรอบ quarterly review ครั้งแรกที่ขอ ROI จริง เหตุไม่ใช่เพราะระบบพัง แต่เพราะ สิ่งที่วัดได้กับสิ่งที่ถูก promise ไว้ไม่ตรงกันตั้งแต่ต้น เมื่อ scope กว้าง output ก็กระจาย วัดไม่ได้ และเมื่อวัดไม่ได้ การต่ออายุโปรเจกต์ก็ขึ้นอยู่กับความรู้สึก ไม่ใช่ข้อมูล
ตลาดกำลัง mature เร็ว และกลายเป็นสิ่งที่ยอมรับ proof ที่ฟังดูดีแต่ไม่ได้ผลจริงน้อยลงเรื่อยๆ
ข้อมูลจาก deployment ที่ประสบความสำเร็จวาดภาพที่สม่ำเสมอ ไม่มีตัวแปรไหนที่พยากรณ์ความสำเร็จได้ชัดเท่าสี่สิ่งนี้:
| ปัจจัย | ทีมที่ล้มเหลว | ทีมที่รอด |
|---|---|---|
| Scope | หลาย workflow, หลาย data source | Workflow เดียว, data source เดียว, outcome ที่วัดได้เดียว |
| เป้าหมายสถาปัตยกรรม | ทำได้มากที่สุด | ทำได้อย่างสม่ำเสมอที่สุด |
| งบ training สำหรับคน | 0–5% ของโปรเจกต์ | 25%+ ของโปรเจกต์ |
| กลไก safety | Human approval ทุก action | Deterministic guardrail + targeted human review |
ตัวเลขที่น่าสนใจที่สุดในตารางนี้คือเรื่อง training budget: โปรเจกต์ที่ใช้งบ 25% ขึ้นไปในการ train คนให้ใช้ระบบจริงได้ผลตอบแทน 2.4 เท่า เมื่อเทียบกับโปรเจกต์ที่ไม่ลงทุนใน training เลย ระบบ automation ดีแค่ไหน adoption รอบข้างมันก็สำคัญเท่ากัน
ในส่วนของ safety มีจุดที่มักถูกเข้าใจผิด: การ rely on human approval ทุก action ฟังดูปลอดภัย แต่ที่ scale มันสร้าง "approval fatigue" — reviewer เริ่ม rubber-stamp output โดยไม่ตรวจ ความปลอดภัยที่แท้จริงมาจาก guardrail ที่แข็ง ทำนายได้ และป้องกันการกระทำที่ทำลายไม่ได้ในเชิงโครงสร้าง ประกอบกับ human review ที่วางไว้ที่ checkpoint สำคัญเท่านั้น ไม่ใช่ทุก step
ตัวเลข 428% vs 198% ไม่ใช่ anomaly — มันคือผลของ mechanism เดิมที่เห็นซ้ำกันใน failure data: ทุกอย่างที่ทำให้โปรเจกต์ดูน่าประทับใจคือสิ่งที่ฆ่าโปรเจกต์
งบใหญ่ดึง stakeholder เพิ่ม → scope creep ตามมา → expectation กระจาย → feedback loop ยาว → ไม่มีตัวเลขชัดในรอบ review → โปรเจกต์ถูกยกเลิกหรือ pivot ก่อน iterate ได้
ในทางกลับกัน invoice processing automation ที่ให้ ROI 534% ในประมาณหนึ่งสัปดาห์ หรือ lead qualification automation ที่ให้ 367% ใน 16 วัน — งานเหล่านี้ไม่น่าตื่นเต้น ไม่ใช่ showcase ที่ดีในงาน conference แต่มัน predictable, auditable, และวัดผลได้ชัดเจน สามคุณสมบัติที่ทำให้รอดใน production
ช่องว่างที่กว้างระหว่างงานที่ยังทำมือกับงานที่ควรจะ automate จะยังคงเปิดอยู่ไม่ใช่เพราะเทคโนโลยีไม่พร้อม แต่เพราะ วิธีที่คนเข้าหาโปรเจกต์เหล่านี้ทำให้มันล้มเหลวซ้ำแล้วซ้ำเล่าในแบบเดิม
ตลาด AI Agent โตจริง ช่องว่างระหว่างงานที่ควรจะ automate กับงานที่ถูก automate จริงนั้นมีอยู่จริง และ ROI ของการปิดช่องว่างนั้นวัดได้ในหน่วยวัน ไม่ใช่เดือน
แต่เหตุที่โอกาสนั้นยังเปิดอยู่ก็เพราะเหตุผลเดียวกัน: เกือบทุกคนล้มเหลวในการ execute โอกาสไม่ได้อยู่ที่การรู้ว่ามีโอกาส — ทุกคนรู้แล้ว
มันอยู่ที่ความเต็มใจที่จะสร้างระบบที่แคบ น่าเบื่อ เชื่อถือได้ — และ scope เล็กพอที่จะวัดผลได้จริงก่อนที่ความกระตือรือร้นจะหมดอายุ
โปรเจกต์ที่ client ต่อสัญญาไม่ใช่โปรเจกต์ที่น่าประทับใจที่สุด — แต่คือโปรเจกต์ที่ทำงานได้จริงในวันที่ไม่มีใครดูอยู่
อ้างอิง: