โซเชียลมีเดีย: เราจะปกป้องผู้ใช้ที่อายุน้อยที่สุดได้อย่างไร?

เด็ก ๆ ที่ค้นหาเนื้อหาเกี่ยวกับภาวะซึมเศร้าและการทำร้ายตัวเองสามารถสัมผัสได้มากขึ้นโดยเครื่องมือแนะนำที่สร้างขึ้นในเครือข่ายสังคมออนไลน์ โซฟีพาร์กินสันอายุเพียง 13 ปีเมื่อเธอเอาชีวิตของตัวเอง เธอมีอาการซึมเศร้าและคิดฆ่าตัวตาย รูธ มอสแม่ของเธอเชื่อว่าในที่สุดโซฟีก็เอาชีวิตของเธอเองเพราะวิดีโอที่เธอดูทางออนไลน์

เช่นเดียวกับเด็ก ๆ หลายคนโซฟีได้รับโทรศัพท์เมื่อเธออายุ 12 ปี

รู ธ จำได้ว่าค้นพบไม่นานหลังจากนั้นโซฟีใช้มันเพื่อดูเนื้อหาที่ไม่เหมาะสมทางออนไลน์

“ สิ่งที่ยากมากสำหรับครอบครัวหลังจากการเสียชีวิตของโซฟีคือการพบภาพที่ยากลำบากและคำแนะนำว่าเธอจะใช้ชีวิตของตัวเองได้อย่างไร” เธอกล่าว

เกือบ 90% ของเด็กอายุ 12 ถึง 15 ปีมีโทรศัพท์มือถือตามการสื่อสารที่เฝ้าระวังของ Ofcom และประมาณการว่าสามในสี่ของจำนวนนั้นมีบัญชีโซเชียลมีเดีย

แอพยอดนิยม จำกัด การเข้าถึงสำหรับเด็กอายุต่ำกว่า 13 ปี แต่เด็ก ๆ จำนวนมากลงทะเบียนและแพลตฟอร์มก็หยุดพวกเขาได้เพียงเล็กน้อย

สมาคมป้องกันการทารุณกรรมเด็กแห่งชาติ (NSPCC) คิดว่า บริษัท เทคโนโลยีควรถูกบังคับตามกฎหมายให้คิดถึงความเสี่ยงที่เด็ก ๆ ต้องเผชิญกับผลิตภัณฑ์ของตน

“เป็นเวลากว่าทศวรรษแล้วที่ความปลอดภัยของเด็กไม่ได้รับการพิจารณาว่าเป็นส่วนหนึ่งของรูปแบบธุรกิจหลักโดย บริษัท เทคโนโลยีขนาดใหญ่” Andy Burrows หัวหน้าฝ่ายนโยบายออนไลน์ด้านความปลอดภัยของเด็กขององค์กรการกุศลกล่าว

“การออกแบบเว็บไซต์สามารถผลักดันให้วัยรุ่นหนุ่มสาวที่มีความเสี่ยงซึ่งกำลังมองหาการฆ่าตัวตายหรือทำร้ายตัวเองให้ดูเนื้อหาประเภทนั้นมากขึ้น”

รับรู้และลบ

ล่าสุดมีการโพสต์วิดีโอของชายหนุ่มที่สละชีวิตของตัวเองบนเฟซบุ๊ก

ต่อมาภาพดังกล่าวได้แพร่กระจายไปยังแพลตฟอร์มอื่น ๆ รวมถึง TikTok ซึ่งวิดีโอดังกล่าวยังคงออนไลน์อยู่เป็นเวลาหลายวัน

TikTok ยอมรับว่าผู้ใช้จะได้รับการปกป้องที่ดีขึ้นหากผู้ให้บริการโซเชียลมีเดียทำงานร่วมกันอย่างใกล้ชิดมากขึ้น

แต่รู ธ สะท้อนมุมมองของ NSPCC และคิดว่าเครือข่ายทางสังคมไม่ควรได้รับอนุญาตให้ตำรวจเอง

เธอบอกว่าเนื้อหาบางส่วนที่ลูกสาวของเธอเข้าถึงเมื่อหกปีก่อนยังคงออนไลน์อยู่และการพิมพ์คำบางคำลงใน Facebook หรือ Instagram จะทำให้เกิดภาพเดียวกัน

Facebook ประกาศขยายเครื่องมืออัตโนมัติเพื่อจดจำและลบเนื้อหาการทำร้ายตัวเองและการฆ่าตัวตายออกจาก Instagram เมื่อต้นสัปดาห์นี้ แต่ได้กล่าวว่ากฎหมายความเป็นส่วนตัวของข้อมูลในยุโรป จำกัด สิ่งที่ทำได้

สตาร์ทอัพรายย่อยอื่น ๆ ก็พยายามใช้เทคโนโลยีเพื่อแก้ไขปัญหานี้เช่นกัน

SafeToWatch กำลังพัฒนาซอฟต์แวร์ที่ได้รับการฝึกฝนโดยเทคนิคการเรียนรู้ของเครื่องเพื่อปิดกั้นฉากที่ไม่เหมาะสมรวมถึงความรุนแรงและภาพเปลือยในแบบเรียลไทม์

วิเคราะห์บริบทของวัสดุภาพและตรวจสอบเสียง

ขอแนะนำให้วิธีนี้เป็นวิธีที่สมดุลสำหรับผู้ปกครองในการปกป้องบุตรหลานของตนโดยไม่ล่วงล้ำเข้าไปในความเป็นส่วนตัวของพวกเขามากเกินไป

“เราไม่เคยให้ผู้ปกครองเห็นว่าเด็กกำลังทำอะไรอยู่เพราะเราต้องได้รับความไว้วางใจจากเด็กซึ่งมีความสำคัญต่อกระบวนการความปลอดภัยในโลกไซเบอร์” Richard Pursey ผู้ก่อตั้งอธิบาย

‘การสนทนาของแฟรงค์’

รู ธ ชี้ให้เห็นว่าการตำหนิพ่อแม่มักเป็นเรื่องง่ายและเสริมว่าเทคโนโลยีความปลอดภัยจะช่วยได้ในบางสถานการณ์เท่านั้นเมื่อเด็ก ๆ มีอิสระมากขึ้น

“พ่อแม่ส่วนใหญ่ไม่สามารถรู้ได้ว่าเกิดอะไรขึ้นในโทรศัพท์มือถือของวัยรุ่นและเฝ้าติดตามสิ่งที่พวกเขาเห็น” เธอกล่าว

และผู้เชี่ยวชาญหลายคนยอมรับว่าเป็นเรื่องที่หลีกเลี่ยงไม่ได้ที่เด็ก ๆ ส่วนใหญ่จะต้องเผชิญกับเนื้อหาที่ไม่เหมาะสมในบางครั้งพวกเขาจึงจำเป็นต้องได้รับ “ความยืดหยุ่นทางดิจิทัล”

“ความปลอดภัยออนไลน์ควรได้รับการสอนในลักษณะเดียวกับทักษะอื่น ๆ ที่ทำให้เราปลอดภัยในโลกแห่งกายภาพ” ดร. ลินดาปาปาโดปูลอสนักจิตวิทยาที่ทำงานกับองค์กรไม่แสวงหาผลกำไรด้านความปลอดภัยเรื่องอินเทอร์เน็ตอธิบาย

“ผู้ปกครองควรสนทนาอย่างตรงไปตรงมาเกี่ยวกับประเภทของเนื้อหาที่เด็ก ๆ อาจพบทางออนไลน์และสอนวิธีป้องกันตนเอง”

เธอบอกว่าเด็กอายุเฉลี่ยที่สัมผัสกับสื่อลามกคือ 11 เมื่อสิ่งนี้เกิดขึ้นเธอแนะนำว่าพ่อแม่ควรพยายามพูดคุยเกี่ยวกับปัญหาที่เกี่ยวข้องแทนที่จะยึดอุปกรณ์ที่ใช้ดู

“หยุดสักครู่ก่อนที่คุณจะตอบสนอง” เธอแนะนำ

Related posts