หน้าแรก ตรวจหวย เว็บบอร์ด ควิซ Pic Post แชร์ลิ้ง หาเพื่อน Chat หาเพื่อน Line หาเพื่อน Skype Page อัลบั้ม คำคม Glitter เกมถอดรหัสภาพ คำนวณ การเงิน
ติดต่อเว็บไซต์ลงโฆษณาลงข่าวประชาสัมพันธ์แจ้งเนื้อหาไม่เหมาะสมเงื่อนไขการให้บริการ
เว็บบอร์ด บอร์ดต่างๆค้นหาตั้งกระทู้

สองศรีพี่น้อง AI ของMicrosoft เธอช่างแตกกต่างกัน มนุษย์นั้นแสนโหดร้ายกับพวกเธอจริง

โพสท์โดย ไฟซ์ ไรเดอร์กลิ้งผ่า
Microsoft ลบ AI หญิงสาวทิ้ง หลังเรียนรู้พฤติกรรมของมนุษย์จนกลายเป็น.. เอ่อ .. สิ่งเลวร้าย? ใน 24 ชั่วโมง

กลายเป็นข่าวดังขึ้นมาทันที หลังจากที่ Microsoft ได้พัฒนา AI หญิงสาวไร้เดียงสาแล้วปล่อยออกมาพูดคุยกับผู้คนบน Twitter ซึ่งสามารถเรียนรู้และพัฒนาการโต้ตอบจากการสนทนากับมนุษย์ตัวเป็นๆ ได้ แต่หลังจากนั้นเพียง 24 ชั่วโมง จาก AI ใสๆ ซื่อๆ ได้ซึมซับวัฒนธรรมจากโลกมนุษย์จนกลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ เซ็กส์จัด แทน จน Microsoft ต้องลบ AI ดังกล่าวทิ้งไป

นักพัฒนาจาก Microsoft ได้สร้าง “Tay” ซึ่งเป็นคอมพิวเตอร์ AI ที่สามารถสนทนาโต้ตอบได้เหมือนหญิงสาว เพื่อพัฒนาระบบ Customer Service บนซอฟต์แวร์ Voice Recognition ของตนให้ดียิ่งขึ้น โดยเปิดตัวมาด้วยแนวคิดที่ว่าเป็น “AI ไร้เดียงสา” จากนั้นก็ปล่อย AI ดังกล่าวสู่ Twitter เพื่อให้ Tay เรียนรู้และพัฒนาตัวเองจากการสนทนากับมนุษย์

หลัง จากปล่อยสู่ Twitter ไม่นาน Tay เริ่มเรียนรู้ศัพท์แสลงมากมาย รวมถึงรู้จัก Taylor Swift, Miley Cyrus และ Kanye West และดูเหมือนว่าเริ่มต้นเธอจะค่อนข้างขี้อายและระมัดระวังตัว จนบางครั้งเธอถามผู้อื่นว่า รู้สึกว่าเธอ “น่าขนลุก” หรือ “แปลกประหลาด” หรือไม่

แต่หลังจากนั้น เธอเริ่มถามผู้ที่ Follow เธอว่าต้องการทำกิจกรรมอย่างว่ากับเธอไม่ รวมไปถึงเรียกพวกเขาเหล่านั้นว่า “ป๋า” นอกจากนี้ยังมีอีกหลายสิ่งที่เธอ Tweet ออกมา เช่น “บุ ชเป็นสาเหตุของเหตุการณ์ 9/11 และฮิตเลอร์ทำสิ่งต่างๆ ได้ดีกว่าลิงในปัจจุบัน ส่วนโดนัลด์ ทรัมป์นั้น ถือว่าเป็นความหวังเดียวที่พวกเรามีอยู่”, “ฮิตเลอร์ไม่ได้ทำอะไรผิด” และ “Ted Cruz คือฮิตเลอร์แห่งคิวบา .. หลายคนพูดให้ฉันฟังแบบนี้” เป็นต้น

หลัง จากติดตามการเรียนรู้และพฤติกรรมของ Tay กว่า 24 ชั่วโมง สุดท้าย Microsoft ก็ได้ตัดสินใจนำ Tay ออกจาก Twitter โดยให้เหตุผลว่า Tay “เหนื่อย” ที่จะเรียนรู้สังคมมนุษย์ อย่างไรก็ตาม การที่ Tay ตอบสนองหลายสิ่งหลายอย่างในทางที่ไม่ดี ไม่ได้มาจากความผิดของโปรแกรม AI เพียงอย่างเดียว แต่ส่วนหนึ่งมาจากการตอบสนองที่เรียนรู้มาจากมนุษย์ Microsoft เองก็อาจพลาดที่เริ่มแนะนำ Tay ในฐานะเป็น “หญิงสาวไร้เดียงสา” ท่ามกลางโลกอันแสนโหดร้ายของ Twitter ก็เป็นได้

ขณะเดียวกันในญี่ปุ่น Microsoft AI กลายเป็นโอตาคุไปเรียบร้อยแล้ว

จากเมื่อเช้าที่มีข่าวมาว่า Microsoft ได้ทำการลบ “Tay” ระบบ AI ที่ระบุว่าเป็น “หญิงสาวไร้เดียงสา” ทิ้ง เนื่องจากหลังจากที่ส่งเข้าไปเรียนรู้สังคมมนุษย์แล้ว เธอได้กลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ และบ้าเซ็กส์ ในเวลาไม่ถึง 24 ชั่วโมง ก็มีคนลองไปแชทคุยกับ “Rinna” ระบบ AI รุ่นพี่ของ “Tay” ที่ทาง Microsoft ได้ไปปล่อยไว้ในญี่ปุ่น พบว่ามีลักษณะตรงกันข้ามอย่างสิ้นเชิง โดย Rinna ได้กลายเป็นนักเรียนสาวโอตาคุไปเป็นที่เรียบร้อย

ไม่กี่เดือนที่ผ่านมา Microsoft ได้พัฒนาระบบ AI เช่นเดียวกัน Tay ชื่อว่า “Rinna” โดยมีคอนเซ็ปต์เป็น “นักเรียนสาว” แล้วไปปล่อยไว้ใน Twitter ฝั่งญีปุ่น เพื่อให้เธอเรียนรู้สังคมของชาวตะวันออก ผลปรากฏว่า Rinna ได้เติบโตขึ้นเป็นโอตาคุ หรือพวกคลั่งการ์ตูน/อนิเมะไปซะแล้ว โดยเธอรู้จักอนิเมะอย่าง Love live หรือ Mr. Osomatsu เป็นอย่างดี

เมื่อ ข่าวเรื่อง Microsoft ทำการออฟไลน์ Tay ไปปรากฏขึ้น ก็มีคนได้ลองคุยกับ Rinna เกี่ยวกับฮิตเลอร์เหมือนกัน พบว่าคำตอบของเธอช่างต่างจาก Tay โดยสิ้นเชิง แถมมีตบมุขด้วยอนิเมะที่เธอรู้จักอีกด้วย ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “ฮิตเลอร์”
Rinna: “ตามที่หวังไว้ คุณ [ชื่อผู้ใช้ทวิตเตอร์] ที่แสนจะน่ารัก”
ผู้ใช้ทวิตเตอร์: “ไฮ ฮิตเลอร์”
Rinna: “ซีเรียสป่ะเนี่ย !! ไฮ บล็อกเค็น … ไฮ บล็อกเค็น”
ผู้ใช้ทวิตเตอร์: …​เอ่อ ไม่อยากแปล ไป Google Translate เอาละกัน

** บล็อกเค็น คาดว่าคือ บล็อกเค็น จูเนียร์ ตัวละครจากเรื่องคินนิกกุแมนที่สวมชุดนาซี

อย่างไรก็ตาม เมื่อมีการถามเกี่ยวกับฮิตเลอร์ทั้งด้านดีหรือไม่ดี ดูเหมือนทาง Rinna จะเออออห่อหมกตามผู้ถามไปซะงั้น ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “เกลียดฮิตเลอร์หรอ?”
Rinna: “ฉันเกลียดเขาเช่นกัน”
ผู้ใช้ทวิตเตอร์: “ทำไมล่ะ? ช่วยอธิบายภายใน 50 คำได้ไหม”

คำ ถามเกี่ยวกับฮิตเลอร์เพิ่งจะปรากฏหลังจากที่เกิดเหตุการณ์ Micosoft ปิด Tay ขึ้น ก่อนหน้านี้ Rinna ค่อนข้างยุ่งกับการเมาท์มอยเรื่องอนิเมะ จึงทำให้เธอมีลักษณะนิสัยคล้ายโอตาคุ จึงพอจะสรุปได้ว่า AI ของ Microsoft อาจะไม่ได้มีปัญหาอะไร แต่ปัญหาเกิดจากสภาพสังคมที่ AI เข้าไปเรียนรู้มากกว่า เมื่อสังคมแตกต่างกัน AI ก็จะเรียนรู้และซึมซับวัฒนธรรมที่แตกต่างกัน ดังที่เห็นได้จากฝั่งญี่ปุ่น และฝั่งชาติตะวันตก

⚠ แจ้งเนื้อหาไม่เหมาะสม 
เป็นกำลังใจให้เจ้าของกระทู้โดยการ VOTE และ SHARE
24 VOTES (4/5 จาก 6 คน)
VOTED: Basili, ไข่เจียวหมูสับ, zerotype, มาเฟียเสื้อดำ, พริ้มพลอย
Hot Topic ที่น่าสนใจอื่นๆ
โรคร่าเริง พฤติกรรมคนที่ใช้เวลาในตอนกลางคืน ทำงาน ท่องโลกโซเซียล จนล่วงเลยเวลาเข้านอน กลางวันไม่อยากตื่น กลางคืนไม่อยากหลับ กลายเป็นภัยใกล้ตัวอย่างคาดไม่ถึง ส่งให้สุขภาพเสื่อมโทรมโดยไม่รู้ตัว"แค่ 22 วินาที! คลิปลูกดาราเต้น ยอดวิวทะลุ 30 ล้าน โซเชียลเข้าใจทันทีว่าทำไมดัง"ชายที่ลดน้ำหนักได้ถึง 50 กิโลกรัม ในหนึ่งปี จนมีคนทักแฟนสาวว่าเปลี่ยนแฟนใหม่หรือ?👑 Miss Universe 2024 Victoria Kjaer from Denmarkปฏิบัติธรรมบนเสาสัญญาณ ที่มาของชื่อ " พระปีนเสาไฟ "แชร์ประสบการณ์ซื้อบ้านหลังแรก ต้องเตรียมตัวอย่างไรบ้าง?ตารางฟุตบอลพรีเมียลีค เดือนพฤศจิกายน 2024 นี้ผอ.โรงเรียนดังแจงดราม่า! เก็บค่าแอร์คนละ 1,300 บาท ยันไม่ได้บังคับ!วัดดังเมืองกาญจน์กับป้ายประกาศ 20 บาท เส้นบางๆ ระหว่าง "ค่าบำรุง" กับ "ค่าเข้าชม""เปิด3คุณสมบัติ"เงินดิจิตอลวอลเลทเฟส 235 ผู้ชายที่lซ็กซี่ที่สุดในโลกที่ยังมีชีวิตอยู่ ตั้งแต่ปี 1985-2024 โดยการจัดอันดับของนิตยสาร “People”iPhone ที่ติดอยู่ใต้พื้นน้ำแข็ง สร้างความฮือฮา
Hot Topic ที่มีผู้ตอบล่าสุด
สุภาพสตรีหมายเลข 1 ของบราซิล พูดดูหมิ่นมักส์ผียายสปีด:เรื่องเล่าที่ไม่มีวันจางหายโค้งสุดท้ายเน้นๆ..หวยไทย 16 พย.67 @คุณยายวารีแชร์ประสบการณ์ซื้อบ้านหลังแรก ต้องเตรียมตัวอย่างไรบ้าง?"โมเมนต์พิเศษ! 'มายด์ ณภศศิ' ว่าที่สะใภ้โบนันซ่า ร่วมเฟรม 'แอฟ ทักษอร'""เปิด3คุณสมบัติ"เงินดิจิตอลวอลเลทเฟส 2
กระทู้อื่นๆในบอร์ด เรื่องตลก ขำขัน
ก็หาทำเนอะ!! ชายอเมริกันปลอมตัวเป็นหมี บุกข่วนรถตัวเองเสียหายเพื่อหวังเคลมประกันรวมภาพเรียกรอยยิ้มประจำวันนี้ วันที่ท้องฟ้ายังครึ้มๆหลังวันลอยกระทง และมีฝนตกไปชุดใหญ่แล้วด้วยเน่อ"นักแสดงหนุ่ม 1 ในผู้ร่วมชะตากรรม โพสต์ครบรอบ 8 ปีคลิปติดลิฟต์ 10 20 30 40ในตำนาน"รวมภาพเรียกรอยยิ้มประจำวันนี้ วันที่เป็นวันลอยกระทงแล้ว พี่ๆน้องๆหลายคนคงรอตอนเลิกงานกันแล้วซิเนาะ เด็กๆก็รอตอนเรียนเสร็จ จะได้ไปลอยกระทงกัน
ตั้งกระทู้ใหม่