ทำไมคุยเรื่อง AI กันทั้งองค์กร แต่กลับไปกันคนละทาง"
NLP Model of Communication กับปัญหา AI คลาสสิกในองค์กร
หลายองค์กรไม่ได้ล้มเหลวเรื่อง AI
เพราะขาดเทคโนโลยี
แต่ล้มเหลวเพราะ “เข้าใจไม่ตรงกัน” โดยไม่รู้ตัว
ผู้บริหารพูดว่า “ต้องใช้ AI ให้เร็ว”
ผู้จัดการคิดว่า “ต้องคุมความเสี่ยง”
ทีมงานคิดว่า “จะเพิ่มงาน หรือมาแทนคน”
แต่ทุกฝ่ายกำลัง “พูดความจริงของตัวเอง”
NLP Model of Communication อธิบายว่า
AI ไม่ได้ถูกตีความจากตัวเทคโนโลยีโดยตรง
แต่ถูกกรองผ่าน ประสบการณ์ ความเชื่อ อารมณ์ และบทบาทหน้าที่
ในองค์กรเดียวกัน
คำว่า “AI” จึงมีความหมายไม่เหมือนกัน
ผู้บริหารฟังจากมุม โอกาส ความเร็ว และความสามารถแข่งขัน
ผู้จัดการฟังจากมุม ความเสี่ยง ความรับผิดชอบ และความผิดพลาด
ทีมงานฟังจากมุม ความมั่นคง งาน และตัวตนในอาชีพ
ตัวกรองสำคัญ 3 อย่าง ที่ทำให้ AI กลายเป็นเรื่องเข้าใจผิด
NLP อธิบายว่า สมองมนุษย์จัดการข้อมูลใหม่ด้วย 3 กลไกหลัก
ซึ่งเกิดขึ้นทันที เมื่อองค์กรพูดถึง “AI”
1. การลบทิ้ง (Deletion)
เลือกฟังเฉพาะส่วนที่กระทบตัวเอง
ตัวอย่างในองค์กร
ผู้บริหารสื่อสารว่า
“เราจะใช้ AI เพื่อช่วยให้ทีมทำงานได้ดีขึ้น”
ทีมงานบางส่วนได้ยินเพียงคำว่า
“ใช้ AI”
และลบทิ้งคำว่า
“ช่วย”
ผลลัพธ์คือ
AI ถูกตีความเป็นภัย
ไม่ใช่เครื่องมือ
2. การบิดเบือน (Distortion)
เติมความหมายจากข่าวและประสบการณ์ภายนอก
ตัวอย่างในองค์กร
ผู้จัดการบอกว่า
“ขอทดลองใช้ AI กับงานบางส่วน”
ในใจทีมงานอาจแปลความทันทีว่า
“กำลังทดสอบว่าใครยังจำเป็นอยู่”
“ถ้า AI ทำได้ เราอาจไม่ต้องอยู่”
ทั้งที่ความตั้งใจจริง
คือการลดงานซ้ำซ้อน
AI จึงกลายเป็น “ความกลัว”
แทนที่จะเป็น “ศักยภาพ”
3. การเหมารวม (Generalization)
ใช้ประสบการณ์ไม่กี่ครั้งตัดสินทั้งหมด
ตัวอย่างในองค์กร
“AI ก็มั่วเหมือนกัน”
“ใช้แล้วงานผิดพลาด”
“สุดท้ายคนก็ต้องมาแก้”
เมื่อเหมารวมเกิดขึ้น
การเรียนรู้จะหยุด
และองค์กรจะถอยกลับไปใช้วิธีเดิม
ไม่ใช่เพราะ AI ใช้ไม่ได้
แต่เพราะความหมายถูกปิดไปแล้ว
