บริบทช่วยลดอคติทางเชื้อชาติในอัลกอริทึมการตรวจจับคำพูดแสดงความเกลียดชัง
โดย:
M
[IP: 103.75.11.xxx]
เมื่อ: 2023-04-20 15:50:04
การทำความเข้าใจว่าอะไรทำให้เกิดอันตรายหรือน่ารังเกียจนั้นยากพอสำหรับมนุษย์ ไม่ต้องสนใจระบบปัญญาประดิษฐ์ดังนั้น จึงไม่น่าแปลกใจที่อัลกอริธึมการตรวจจับคำพูดแสดงความเกลียดชังของสื่อสังคมออนไลน์ ซึ่งออกแบบมาเพื่อหยุดการแพร่กระจายของคำพูดแสดงความเกลียดชัง สามารถขยายอคติทางเชื้อชาติได้โดยการบล็อกทวีตที่ไม่น่ารังเกียจโดยคนผิวดำหรือสมาชิกกลุ่มชนกลุ่มน้อยอื่นๆ ความเกลียดชัง ในความเป็นจริง การศึกษาก่อนหน้านี้แสดงให้เห็นว่าโมเดล AI มีแนวโน้มที่จะตั้งค่าสถานะทวีตที่เขียนโดยชาวแอฟริกันอเมริกันว่า "ก้าวร้าว" หรืออีกนัยหนึ่งคือผลบวกปลอมถึง 1.5 เท่า เมื่อเทียบกับทวีตอื่นๆ ทำไม เนื่องจากโมเดลการตรวจจับอัตโนมัติในปัจจุบันขาดสิ่งที่สำคัญ: บริบท โดยเฉพาะอย่างยิ่ง ตัวแยกประเภทคำพูดแสดงความเกลียดชังนั้นไวต่อตัวระบุกลุ่ม เช่น "คนผิวดำ" "เกย์" หรือ "คนข้ามเพศ" มากเกินไป ซึ่งเป็นตัวบ่งชี้คำพูดแสดงความเกลียดชังเมื่อใช้ในบางสถานการณ์เท่านั้น ขณะนี้ ทีมนักวิจัยของ USC ได้สร้างตัวแยกประเภทคำพูดแสดงความเกลียดชังที่คำนึงถึงบริบทมากขึ้น และมีโอกาสน้อยที่จะเข้าใจผิดว่าโพสต์ที่มีตัวระบุกลุ่มเป็นคำพูดแสดงความเกลียดชัง เพื่อให้บรรลุเป้าหมายนี้ นักวิจัยได้ตั้งโปรแกรมอัลกอริทึมให้พิจารณาปัจจัยเพิ่มเติม 2 ประการ ได้แก่ บริบทที่ใช้ตัวระบุกลุ่ม และลักษณะเฉพาะของคำพูดแสดงความเกลียดชังมีอยู่หรือไม่ เช่น ภาษาที่ลดทอนความเป็นมนุษย์และดูถูกเหยียดหยาม "เราต้องการขยับการตรวจจับคำพูดแสดงความเกลียดชังให้ใกล้เคียงกับการนำไปใช้ในโลกแห่งความเป็นจริง" เบรนแดน เคนเนดี นักศึกษาปริญญาเอกวิทยาการคอมพิวเตอร์และผู้เขียนร่วมของงานวิจัยนี้ กล่าว ซึ่งตีพิมพ์ใน ACL 2020 เมื่อวันที่ 6 กรกฎาคม "รูปแบบการตรวจจับคำพูดแสดงความเกลียดชังมักจะ 'ทำลาย' หรือสร้างการคาดการณ์ที่ไม่ดี เมื่อนำไปใช้กับข้อมูลในโลกแห่งความเป็นจริง เช่น สื่อสังคมออนไลน์หรือข้อมูลข้อความออนไลน์อื่นๆ เนื่องจากข้อมูลเหล่านี้ได้รับการฝึกอบรมให้เชื่อมโยงกับลักษณะที่ปรากฏของข้อความแสดงความเกลียดชัง คำที่ระบุตัวตนทางสังคมด้วยคำพูดแสดงความเกลียดชัง"
- ความคิดเห็น
- Facebook Comments