AI Bias in HR อคติของปัญญาประดิษฐ์ ภัยเงียบขององค์กร

HIGHLIGHT

  • ผู้เชี่ยวชาญกล่าวว่า AI จะถูกนำมาใช้ในทุกองค์กรภายในปี 2025 เราจึงต้องเตรียมตัวรับมือกับมันให้ได้ ทั้งด้วยการให้ความรู้กับบุคลากร ตลอดจนหาคำตอบเบื้องต้นว่าเราควรเลือกเครื่องมือแบบใดมาใช้เพื่อให้เกิดประโยชน์สูงสุด
  • ปัญหาสำคัญของ AI ในปัจจุบันคือเรื่องอคติหรือความลำเอียง เพราะ AI พัฒนาจากการให้ข้อมูลของมนุษย์ ปัญหานี้ทำให้เกิดความไม่เท่าเทียมทางด้านเชื้อชาติ, อายุ, เพศสภาพ ฯลฯ ส่งผลโดยตรงต่อการทำงาน HR เช่น เรื่องการสรรหาบุคลากร (Recruiting)
  • Berkeley Haas กล่าวว่าระบบ AI มีโอกาสลำเอียงในเรื่องเพศสภาพถึง 44% และลำเอียงในเรื่องเชื้อชาติอยู่ที่ 26% สอดคล้องกับการวิจัยจาก Stanford ที่กล่าวว่าผู้พูดที่เป็นคนผิวดำ มีโอกาสถูกเข้าใจผิดมากกว่าคนขาวถึง 16%
  • AI เป็นเพียงเครื่องมือช่วยมนุษย์เท่านั้น ไม่ใช่วิธีแก้ปัญหา (Solution) ที่มีความเฉียบคม มนุษย์จึงต้องหาแนวทางบูรณาการองค์ความรู้ที่มีเข้ากับปัญญาประดิษฐ์ให้ได้หากต้องการเติบโตอย่างยั่งยืน

ปัญญาประดิษฐ์ถูกนำมาใช้ในงานบริหารทรัพยากรบุคคลมากขึ้นอย่างมีนัยสำคัญ โดยสาเหตุหลักอย่างหนึ่งคือการเกิดขึ้นของโควิด-19 ที่ทำให้เทคโนโลยีมากมายถูกสร้างออกมาให้สอดคล้องกับรูปแบบการทำงานในขณะนั้น โดย Forbes รายงานว่าภายในปีค.ศ. 2025 หรืออีกเพียง 2 ปีนับจากนี้ ทุกบริษัททั่วโลกจะต้องมี AI เป็นส่วนหนึ่งในกระบวนการทำงานแน่นอน

อย่างไรก็ตามการเติบโตของปัญญาประดิษฐ์ทำให้มนุษย์เริ่มตั้งคำถามว่า AI จะเข้ามาแย่งงานมนุษย์ในเร็ววันหรือไม่ ? ซึ่งผู้เชี่ยวชาญอย่าง Wall Street Journal ก็มองว่าหากเราผสมผสานทั้งสองเรื่องเข้าด้วยกันได้ ก็จะเกิดประโยชน์มากกว่าการมานั่งกังวลว่าทั้งสองจะเข้าไปทดแทนกันอย่างไร

เพราะยังมีสิ่งที่น่าจะเป็นปัญหามากกว่านั่นก็คือเรื่อง “อคติ” (Bias) ที่ทำให้ AI มีข้อผิดพลาด ไม่สามารถประมวลผลได้อย่างเที่ยงตรงและเป็นธรรม ซึ่งพอนำมาใช้กับงาน HR แล้ว ก็ส่งผลกระทบในหลากหลายแง่มุม ไม่ว่าจะเป็นเรื่องการสรรหาบุคลากร (Recruiting), การสร้างภาพลักษณ์ (Branding) หรือแม้การสร้างสรรค์สวัสดิการ (Benefits) 

AI Bias ของวงการ HR จึงเป็นสิ่งสำคัญที่เราต้องแก้ไขให้ได้ในทุกมิติ เพื่อเตรียมพร้อมองค์กรให้เข้าสู่โลกการทำงานในอนาคตได้อย่างเต็มภาคภูมิ อ่านทุกเรื่องที่คุณต้องรู้เกี่ยวกับ “อคติของปัญญาประดิษฐ์ ภัยเงียบขององค์กร” ได้ที่ HREX.asia

AI Bias in HR หรืออคติของปัญญาประดิษฐ์ในงานบริหารทรัพยากรบุคคลคืออะไร 

HR in Digital Age

อคติของปัญญาประดิษฐ์หมายถึงการประมวลผลของ AI ที่ออกมาอย่างไม่เป็นธรรม ซึ่งอาจเกิดได้จากหลายเหตุผล เช่น ข้อมูลที่นำมาสอน (Training) ไม่เป็นกลาง หรืออาจมีข้อบกพร่องของอัลกอริทึม ซึ่งไม่ว่าจะด้วยเหตุผลใดก็ตาม มันได้นำไปสู่การประมวลผลที่ส่งผลเสียและเอื้อประโยชน์ต่อคนบางกลุ่มเป็นพิเศษ ไม่ว่าจะเป็นในแง่ของเชื้อชาติ, สีผิว, อายุ ฯลฯ

การลดอคติของ AI จึงถือเป็นสิ่งที่ทุกองค์กรต้องทำให้ได้ก่อนที่จะนำเข้ามาใช้ในส่วนอื่น ๆ เพื่อให้มั่นใจว่าเทคโนโลยีดังกล่าวจะให้ผลลัพธ์ที่เกิดประโยชน์สูงสุดจริง

มีสถิติที่น่าสนใจจาก Berkeley Haas กล่าวว่าระบบ AI มีโอกาสลำเอียงในเรื่องเพศสภาพถึง 44% และลำเอียงในเรื่องเชื้อชาติอยู่ที่ 26% ซึ่งนับว่าเป็นอัตราที่สูงมาก สอดคล้องกับการวิจัยจาก Stanford ที่กล่าวว่าผู้พูดที่เป็นคนผิวดำ มีโอกาสถูกเข้าใจผิดจาก AI Automated Speech Recognition มากกว่าคนขาวถึง 16% ซึ่งปัญหานี้จะทำให้เกิดการตัดคะแนนที่ไม่เป็นธรรมหาก AI ดังกล่าวถูกนำไปใช้ในกระบวนการสัมภาษณ์ผู้สมัคร

บริษัทสัญชาติเยอรมันอย่าง Bavarian Broadcasting ได้ทำการศึกษาเรื่องการใช้ AI เพื่อช่วยสัมภาษณ์แบบออนไลน์ (Video-Hiring AI) และพบว่าเครื่องมือดังกล่าวมีข้อผิดพลาดที่ไม่น่าให้อภัยอยู่เต็มไปหมด เช่น พบว่าผู้สมัครจะได้คะแนนเพิ่มหากนั่งอยู่ในห้องที่มีแสงสว่างมากกว่า หรือนั่งอยู่หน้าชั้นหนังสือ แต่ผู้สมัครจะถูกตัดคะแนนทันทีหากสวมหมวกหรือผ้าโพกหัว

กรณีนี้เกิดขึ้นเพราะ AI เก็บสถิติและพบว่าผู้สมัครที่เก่งหรือได้รับเลือกในอดีตเป็นคนที่ไม่สวมอะไรไว้ที่หัว เลยเลือกประมวลผลเพื่อหาคนแบบเดียวกัน โดยไม่เข้าใจเลยว่าเครื่องแต่งกายนั้น ๆ ไม่ได้ส่งผลต่อศักยภาพในการทำงานของผู้สมัครเลยด้วยซ้ำ 

หรือแม้แต่อัลกอริทึมเวลาประกาศหางานทางแอปพลิเคชั่นชื่อดังอย่าง Facebook ที่มีการศึกษาจนค้นพบว่ามีความเอนเอียงในส่วนของเพศสภาพ (Gender Bias) เช่น หากเรารับสมัครงานด้านรักษาพยาบาล ระบบก็จะดึงดูดคนเพศหญิงมากกว่าโดยอัตโนมัติ ขณะที่หากเราประกาศหาคนที่ทำงานช่าง ระบบก็จะผลักประกาศดังกล่าวเข้าหาผู้ชายมากกว่า เป็นต้น

อีกตัวอย่างที่น่าสนใจคือกรณีของบริษัทอีคอมเมิร์ซชื่อดังอย่าง Amazon ที่เคยนำ AI มาช่วยคัดเลือกเรซูเม่ในกระบวนการสรรหาพนักงานชั้นยอด (Top Talent) โดย AI มีหน้าที่ตรวจสอบข้อมูลผู้สมัครทั้งหมดและให้คะแนนออกมาระหว่าง 1 ถึง 5 ดาว พวกเขาหวังว่าเครื่องมือนี้จะช่วยลดขั้นตอนของ HR และทำให้กระบวนทั้งหมดรวดเร็วขึ้น

แต่สุดท้ายปัญญาประดิษฐ์ดังกล่าวก็ไม่สมบูรณ์แบบอย่างที่คิด เพราะมีปัญหาหลักคือข้อมูลที่ถูกป้อนให้ขณะสร้าง AI เป็นข้อมูลที่เน้นเพศชายมากกว่าเพศหญิงอย่างชัดเจน ทำให้ AI เลือกตัดคะแนนผู้สมัครทันทีที่เห็นคำว่า “ผู้หญิง” หรือเห็นว่าผู้สมัครเรียนจบมาจากสถานศึกษาของผู้หญิงโดยเฉพาะ ซึ่งปัญหาเหล่านี้ทำให้ Amazon ตัดสินใจยกเลิกเครื่องมือดังกล่าวทันที

กรณีศึกษา (Case Study) ข้างต้นเป็นเพียงสถิติและตัวอย่างให้พอเห็นภาพเท่านั้น ต้องยอมรับว่าเทคโนโลยี AI ในปัจจุบันมีพัฒนาการอย่างต่อเนื่องและรวดเร็วกว่าเดิมมาก ปัญหาต่าง ๆ จึงถูกแก้ไขได้ง่ายขึ้น ดังนั้นสิ่งสำคัญที่ HR ต้องมีคือความสามารถในการเลือกใช้ปัญญาประดิษฐ์ให้เหมาะกับความต้องการขององค์กร โดยไม่ลืมที่จะประเมินผลเครื่องมือเดิมว่ามีข้อแตกต่างมากหรือน้อยกว่ากันอย่างไร เพื่อให้เลือกใช้เครื่องมือได้อย่างคุ้มค่าและตรงโจทย์ขององค์กรที่สุด

AI Bias in HR หรืออคติของปัญญาประดิษฐ์ในงานบริหารทรัพยากรบุคคลส่งผลเสียอย่างไร

การเป็นผู้นำที่ดีในยุคดิจิทัล (How to be a good leader in Digital Age)

ปัจจุบันมีการนำปัญญาประดิษฐ์มาใช้กับงาน HR ในหลากหลายแง่มุม การเกิดขึ้นของ AI Bias จึงสามารถก่อปัญญาขึ้นในวงกว้างกว่าที่เคย โดยเราสามารถแยกประเด็นออกมาได้ดังนี้

กระบวนการสรรหาบุคลากร (Recruiting Process)

1. เกิดการคัดเลือกพนักงานที่ไม่เป็นธรรม (Bias Candidate Screening) : ปัญญาประดิษฐ์อาจเลือกคนโดยลำเอียงแบบไม่ได้ตั้งใจ ด้วยเหตุผลทางด้านอัลกอริทึม, การใส่คีย์เวิร์ดที่ไม่ชัดเจน หรือการสอนข้อมูลที่ไม่จำเป็นเยอะเกินไป ปัญหานี้จะทำให้ HR Recruiter ไม่มีโอกาสเห็นเรซูเม่ของคนที่มีฝีมือ แต่มีรายละเอียดบางอย่างขัดแย้งกับ ‘สิ่งที่ดีในทรรศนะของ AI’ การที่คนเก่งถูกปัดตกโดยไม่รู้ตัวแบบนี้เป็นเรื่องน่าห่วงมาก โดยเฉพาะในปัจจุบันที่มีพนักงานอยู่ในตลาดแรงงานน้อยกว่าที่เคย

2. เกิดการให้ความเห็นที่ไม่เป็นธรรม (Bias Feedback) : AI มีหน้าที่ป้อนข้อมูลกลับไปให้ HR Recruiter ว่าจะให้โอกาสผู้สมัครดังกล่าวผ่านเข้าสู่ขั้นตอนคัดเลือกต่อไปหรือไม่ ดังนั้นปัญญาประดิษฐ์ที่มีความลำเอียงจะไม่สามารถข้อมูลที่สามารถนำไปอ้างอิงได้ ถือเป็นการสิ้นเปลืองทรัพยากร อาจนำไปสู่ปัญหาตามมามากมายหากองค์กรไม่ได้มีคนมากำกับดูแลเรื่องการใช้เทคโนโลยีอย่างจริงจัง

สวัสดิการพนักงาน (Employee Benefit)

1. เกิดความไม่เท่าเทียมในการเข้าถึงสวัสดิการ (Unequal Access) : ถ้าระบบปัญญาประดิษฐ์มีความลำเอียง สวัสดิการขององค์กรก็อาจพิจารณาจากข้อมูลเพื่อตอบสนองคนเพียงกลุ่มใดกลุ่มหนึ่งเท่านั้น ทำให้ HR ไม่สามารถเลือกหลักสูตรอบรมที่เหมาะสม หรือออกแบบวัฒนธรรมบางอย่างที่สอดคล้องกับความหลากหลายของบุคลากรได้เลย

2. ลดทอนประสิทธิภาพในการออกแบบสวัสดิการแบบเฉพาะเจาะจง (Limited Personalization) : วิธีออกแบบสวัสดิการที่ได้รับการยอมรับว่ามีประสิทธิภาพที่สุดในปัจจุบันคือการออกแบบสวัสดิการที่พนักงานสมารถเลือกสิ่งที่ต้องการได้เอง มีความเป็นส่วนตัว ไม่ได้เป็นแบบสวัสดิการเดียวใช้ร่วมกันหมด (One Size Fits All)

ซึ่งระบบ AI ที่ดีจะช่วยให้เราวิเคราะห์ความต้องการของพนักงานแต่ละคนได้อย่างละเอียด แต่ในทางกลับกัน หาก AI มีอคติ เราก็อาจมองข้ามความต้องการของคนกลุ่มหนึ่งไปเลยก็ได้ แปลว่าหากเราเชื่อมั่นในปัญญาประดิษฐ์มากเกินไป สวัสดิการขององค์กรก็จะมีพัฒนาการที่ไม่ครอบคลุมเท่าที่ควร

3. กีดกันความเท่าเทียม (Diversity Underreprestation) : แม้จะเกิดขึ้นโดยไม่ตั้งใจ แต่การประมวลผลของ AI ก็มักอ้างอิงจากประสบการณ์ในอดีต และข้อมูลที่ใส่เพิ่มเข้าไป ดังนั้นหากข้อมูลของเรามุ่งเน้นไปที่คนกลุ่มเดียว และ HR ไม่ตั้งคำถามหรือพิจารณาอย่างถี่ถ้วน ก็มีโอกาสสูงมากที่องค์กรจะมีแต่คนในลักษณะเดียวกัน ซึ่งหากเป็นแบบนี้ สวัสดิการที่ AI ประมวลผลตามมา ก็จะเป็นผลลัพธ์ที่สอดคล้องกับกลุ่มคนเหล่านั้น ไม่มีสวัสดิการที่ช่วยให้คนแบบอื่นร่วมกันได้อย่างสมบูรณ์

การสร้างภาพลักษณ์องค์กร (Branding)

1. ทำลายชื่อเสียงขององค์กร (Negative Reputation) : พนักงานที่รู้ว่าตนถูกตัดสิทธิ์สัมภาษณ์เพราะความผิดพลาดของ AI อาจนำปัญหานี้ไปเล่าต่อในที่สาธารณะ ส่งผลเสียโดยตรงต่อความน่าเชื่อถือขององค์กร ทำให้องค์กรดึงดูดพนักงานที่มีฝีมือยากขึ้น เพราะแสดงถึงความไม่เป็นมืออาชีพ

2. ทำให้พนักงานเดิมมองว่าองค์กรมีการเลือกปฏิบัติแบบไม่เป็นธรรม (Perception of Unfairness) : อย่างที่กล่าวไปหลายครั้งว่าการใช้ปัญญาประดิษฐ์ที่ดีจำเป็นต้องมีคนคอยตรวจสอบหรือกำกับดูแลเสมอ การที่องค์กรเอาผลลัพธ์ที่เกิดจากการประมวลผลแบบมีอคติมาใช้ ก็คือภาพสะท้อนของการทำงานที่ล้มเหลว ไม่เป็นระบบ ลดความน่าเชื่อถือในหมู่พนักงาน ทำให้ยากต่อการปกครองและสั่งงานอื่น ๆ ในอนาคต

วิธีแก้ปัญหาเรื่อง AI Bias in HR หรืออคติของปัญญาประดิษฐ์

HRD in Digital Age

คุณ Ted Kwartler, VP of Trusted AI จากบริษัท DataRobot กล่าวว่าสิ่งสำคัญที่ทุกองค์กรต้องรู้ก่อนก็คือ “ปัญญาประดิษฐ์ที่ดี” (Good AI) เป็นอย่างไร ซึ่งเขากล่าวว่าปัญญาประดิษฐ์ที่ดีจะเกิดขึ้นได้ด้วยส่วนผสมหลาย ๆ ส่วน โดยมีองค์ประกอบที่สำคัญที่สุด 4 อย่าง ได้แก่

– AI Innovators : หมายถึงผู้นำหรือผู้บริหารที่มีความรู้ความเข้าใจในเรื่องปัญญาประดิษฐ์และเชื่อมั่นว่าเครื่องมือดังกล่าวจะช่วยแก้ปัญหาในองค์กรได้จริง

– AI Creators : วิศวกรด้าน Machine Learning หรือนักวิทยาศาสตร์ข้อมูล (Data Scientist) ที่มีฝีมือในการสร้างเครื่องมือ

– AI Consumers : คนที่มีหน้าที่ใช้และตรวจสอบการทำงานของปัญญาประดิษฐ์ รวมถึงทีมกฎหมายและทีมบริหารความเสี่ยง (Risk Management) 

– AI Implementers : ผู้ที่สามารถเอา AI ไปปรับใช้กับเครื่องมือหรือกลยุทธ์เดิมที่องค์กรมีอยู่แล้ว เพื่อทำให้สามารถใช้งานได้จริง

เมื่อองค์ประกอบข้างต้นสมบูรณ์จนเกิดการนำปัญญาประดิษฐ์มาใช้แล้ว เราสามารถแก้ไขปัญหาเรื่อง AI Bias ได้ด้วยวิธีดังต่อไปนี้

1. ตรวจสอบการทำงานของ AI เป็นประจำ : ตามปกติแล้ว Machine Learning จะมีพัฒนาการและเกิดการเรียนรู้อยู่เรื่อย ๆ หมายความว่าการตรวจสอบเพียงครั้งเดียวในช่วงเริ่มต้นไม่เพียงพออีกต่อไป เราควรตรวจสอบเป็นระยะ ทั้งการตรวจสอบภายในและใช้ผู้เชี่ยวชาญจากภายนอก เพื่อเช็คว่าเครื่องมือของเรามีการประมวลผลแบบลำเอียงหรือไม่ โดยสามารถขอข้อมูล ความคิดเห็นจากผู้สมัครหรือ HR โดยตรงก็ได้เช่นกัน

2. ละเว้นข้อมูลที่ไม่จำเป็น : ผู้เชี่ยวชาญกล่าวว่า “น้อยแต่มาก” (Less is More) เป็นสิ่งที่ใช้ได้เสมอ เพราะแทนที่เราจะมุ่งใส่ข้อมูลมากมายลงไปให้ AI ศึกษา เราควรหันมาเลือกเฉพาะข้อมูลที่เป็นประโยชน์และสมเหตุสมผล วิธีนี้เมื่อทำคู่กับการตรวจสอบเป็นระยะ จะช่วยให้เราได้พนักงานที่ตรงโจทย์ขององค์กรมากยิ่งขึ้น

3. พยายามให้ข้อมูลที่มีความหลากหลาย (Diverse) : เราควรสอนปัญญาประดิษฐ์ด้วยข้อมูลที่หลากหลาย ไม่พุ่งเป้าไปที่เชื้อชาติ, ระดับการศึกษา หรือเพศสภาพแบบใดโดยเฉพาะ ยิ่งเรามีข้อมูลที่ครอบคลุมและเปิดกว้างเท่าไหร่ ก็จะยิ่งลดความลำเอียงของ AI ได้มากขึ้นเท่านั้น

4. ต้องมีทีมปฏิบัติงานที่เข้าใจเรื่องความหลากหลายในสังคม (Inclusive Development Team) : การสร้างแผนกไอทีที่มีคนหลายประเภท จะช่วยให้เรามองเห็นอคติหรือปัญหาที่เกิดขึ้นใน AI ง่ายขึ้น เพราะหากเรามีคนกลุ่มเดียว เราอาจไม่ทันสังเกตเลยว่าสิ่งที่ประมวลผลออกมามีโอกาสกระทบจิตใจใครได้อีกหรือไม่ การสร้างทีมแบบนี้ไม่ได้เหมาะกับงานสายนี้เท่านั้น แต่สามารถนำไปประยุกต์กับแผนกอื่น ๆ ได้ด้วย เพราะถือเป็นรากฐานขององค์กรที่เท่าเทียมอย่างแท้จริง

5. ไม่ปล่อยให้ Ai ตัดสินใจในประเด็นสำคัญเพียงลำพัง : เราต้องเข้าใจว่าแม้ AI จะพัฒนาองค์ความรู้และการตัดสินใจด้วยตัวเองได้ แต่ก็ยังมีข้อจำกัดอีกมากหากเทียบกับมนุษย์ที่สามารถมองเรื่องต่าง ๆ ด้วยแง่มุมที่กว้างกว่า องค์กรต้องฝึกผู้ใช้ AI ให้รู้ว่าควรเอาผลลัพธ์ที่ได้จากปัญญาประดิษฐ์ไปต่อยอดอย่างไร และรู้ว่ามีจุดไหนที่ผิดแปลกไปจากเดิมบ้าง เพื่อไม่ให้ความผิดพลาดของ AI ส่งผลต่อการตัดสินใจในประเด็นสำคัญ

วิธีเลือกใช้ AI หรือปัญญาประดิษฐ์ภายในองค์กร

การตรวจสอบแบบไบโอเมตริก (Biometrics) คืออะไร

เราต้องเข้าใจก่อนว่า AI มีทั้งข้อดีและข้อเสีย บุคลากรของเราต้องมีความเข้าใจเรื่องเทคโนโลยี ต้องรู้ว่าจะนำเครื่องมือต่าง ๆ มาบูรณาการเข้ากับปัญญาประดิษฐ์อย่างไร ไม่ควรปล่อยให้ AI ทำงานไปเฉย ๆ อย่างโดดเดี่ยว (Isolate) เพราะแม้เทคโนโลยีจะเติบโตแค่ไหน แต่ก็อาจเกิดข้อผิดพลาดโดยไม่ตั้งใจจนทำให้องค์กรพลาดโอกาสดี ๆ ไปเช่นกัน

ยกตัวอย่างในขั้นตอนสรรหา หากเราลืมเขียนคีย์เวิร์ดบางตัว AI ก็อาจตัดผู้สมัครที่มีฝีมือบางคนทิ้งไปเลยก็ได้ ดังนั้นเราจึงจำเป็นต้องบริหารจัดการเทคโนโลยีต่าง ๆ ด้วยความใส่ใจเป็นพิเศษ (Managed with care)

ในการเลือกเครื่องมือ AI มาใช้ในองค์กรนั้น ทาง HR ต้องเริ่มจากการหันมาดูภาพรวมภายใน (Internally) ก่อน ต้องรู้ว่าเป้าหมายของการใช้เครื่องมือนั้น ๆ คืออะไร, อยากพัฒนาเรื่องอะไรเป็นหลัก ซึ่ง HR สามารถประชุมกับผู้บริหารโดยตรง หรือทำแบบสำรวจจากพนักงานก็ได้เช่นกัน

เมื่อได้ข้อสรุปเบื้องต้นแล้ว HR สามารถนำคำถามเหล่านี้ไปพูดคุยกับเจ้าของผลิตภัณฑ์หรือผู้ให้บริการด้าน AI ได้เลย

– โครงสร้างของเครื่องมือดังกล่าวเป็นอย่างไร ?
– มีปัญหาด้านอคติแบบใดบ้างในอดีตที่เคยได้รับการแก้ไขไปแล้ว ?

– Machine Learning (ML) ที่ใช้สอน AI ดังกล่าวมีข้อมูลที่สอดคล้อง (Relevant) กับแนวทางขององค์กรหรือไม่ ?

– หลังจากซื้อเครื่องมือมาแล้ว AI ดังกล่าวยังจะมีพัฒนาการหรือมีการปรับปรุงอีกหรือไม่ ?

– AI ดังกล่าวมีขั้นตอนรับมือกับปัญหาด้านอคติหรือความลำเอียงอย่างไร และจะมีการตรวจสอบในเรื่องนี้บ่อยแค่ไหน ?

หากคุณไม่รู้ว่าจะหาผู้ให้บริการที่มีคุณภาพจากแหล่งไหน เราขอแนะนำบริการ HR Products & Services จาก HREX.asia ซึ่งเป็นแพลตฟอร์มที่รวบรวมตัวช่วย HR ไว้มากที่สุดในเมืองไทย ไม่ว่าคุณจะต้องการแก้ปัญหาแบบไหน ที่นี่มีครบ

บทสรุป

การรับรู้ถึงปัญหาเรื่องอคติของปัญญาประดิษฐ์ (AI Bias in HR) เป็นเรื่องที่สำคัญอย่างยิ่งยวด เพราะความลำเอียงดังกล่าวอาจทำให้ปัญหาด้านความไม่เท่าเทียม (Inequality) แย่ลงไปอีกขั้น เพราะหากองค์กรไม่สามารถบริหารจัดการปัญญาประดิษฐ์ให้ดี ก็จะมีคนที่ได้รับผลกระทบโดยตรง ไม่ว่าจะเป็นกลุ่มผู้หญิง, คนผิวสี หรือคนที่มีลักษณะแตกต่างจากคนอื่น ๆ ในสังคม ซึ่งความจริงแล้วไม่ว่าบุคลากรจะเป็นอย่างไร HR ก็มีหน้าที่สนับสนุนด้วยความเท่าเทียมเสมอ

นอกจากนี้ปัญหาเรื่องอคติของ AI ยังสามารถส่งผลต่อเนื่องไปถึงสังคมโดยรวมได้อีกด้วย เพราะเมื่อเราไม่สามารถผลักดันให้องค์กรเต็มไปด้วยความหลากหลาย ก็แปลว่าเราจะกลุ่มคนอีกหลายส่วนที่ไม่มีโอกาสได้เรียนรู้สิ่งใหม่ ๆ,​ ปราศจากประสบการณ์ทำงานจริง ไม่มีพลังสร้างสรรค์นวัตกรรมที่น่าสนใจมากพอ

ยิ่งเมื่อผู้เชี่ยวชาญกล่าวว่าองค์กร 100% จะใช้ AI เป็นตัวช่วยภายในปี 2025 องค์กรที่ปล่อยปละละเลยเรื่องนี้ จึงอาจถือเป็นส่วนหนึ่งที่ทำให้สังคมทำงานในประเทศไม่เติบโตเท่าที่ควร

ดังนั้นหากเป็นไปได้ เราอยากให้ทุกฝ่ายที่เกี่ยวข้องให้ความสำคัญกับปัญญาประดิษฐ์อย่างจริงจัง ต้องหมั่นตรวจสอบและตั้งคำถามว่าเครื่องมือดังกล่าวได้สร้างความเป็นไปได้ใหม่ ๆ ในองค์กรของเราจริงหรือไม่ และมีส่วนใดอีกบ้างที่เราควรปรับปรุงพัฒนาให้ดีขึ้น

เราต้องมองว่า AI เป็นเพียงเครื่องมือช่วยมนุษย์เท่านั้น ไม่ใช่วิธีแก้ปัญหา (Solution) ที่มีความเฉียบคม “การอยู่ร่วมกับมันอย่างมืออาชีพ” จึงเป็นคำตอบสุดท้ายที่จะช่วยผสานมนุษย์กับปัญญาประดิษฐ์เข้าด้วยกันอย่างสมบูรณ์

ผู้เขียน

HREX.asia

HREX.asia

Connect People to the Best HR Solution เพื่อสนับสนุนการเติบโตขององค์กรผ่านผู้คน

บทความที่เกี่ยวข้อง