สองศรีพี่น้อง AI ของMicrosoft เธอช่างแตกกต่างกัน มนุษย์นั้นแสนโหดร้ายกับพวกเธอจริง
กลายเป็นข่าวดังขึ้นมาทันที หลังจากที่ Microsoft ได้พัฒนา AI หญิงสาวไร้เดียงสาแล้วปล่อยออกมาพูดคุยกับผู้คนบน Twitter ซึ่งสามารถเรียนรู้และพัฒนาการโต้ตอบจากการสนทนากับมนุษย์ตัวเป็นๆ ได้ แต่หลังจากนั้นเพียง 24 ชั่วโมง จาก AI ใสๆ ซื่อๆ ได้ซึมซับวัฒนธรรมจากโลกมนุษย์จนกลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ เซ็กส์จัด แทน จน Microsoft ต้องลบ AI ดังกล่าวทิ้งไป
นักพัฒนาจาก Microsoft ได้สร้าง “Tay” ซึ่งเป็นคอมพิวเตอร์ AI ที่สามารถสนทนาโต้ตอบได้เหมือนหญิงสาว เพื่อพัฒนาระบบ Customer Service บนซอฟต์แวร์ Voice Recognition ของตนให้ดียิ่งขึ้น โดยเปิดตัวมาด้วยแนวคิดที่ว่าเป็น “AI ไร้เดียงสา” จากนั้นก็ปล่อย AI ดังกล่าวสู่ Twitter เพื่อให้ Tay เรียนรู้และพัฒนาตัวเองจากการสนทนากับมนุษย์
หลัง จากปล่อยสู่ Twitter ไม่นาน Tay เริ่มเรียนรู้ศัพท์แสลงมากมาย รวมถึงรู้จัก Taylor Swift, Miley Cyrus และ Kanye West และดูเหมือนว่าเริ่มต้นเธอจะค่อนข้างขี้อายและระมัดระวังตัว จนบางครั้งเธอถามผู้อื่นว่า รู้สึกว่าเธอ “น่าขนลุก” หรือ “แปลกประหลาด” หรือไม่
แต่หลังจากนั้น เธอเริ่มถามผู้ที่ Follow เธอว่าต้องการทำกิจกรรมอย่างว่ากับเธอไม่ รวมไปถึงเรียกพวกเขาเหล่านั้นว่า “ป๋า” นอกจากนี้ยังมีอีกหลายสิ่งที่เธอ Tweet ออกมา เช่น “บุ ชเป็นสาเหตุของเหตุการณ์ 9/11 และฮิตเลอร์ทำสิ่งต่างๆ ได้ดีกว่าลิงในปัจจุบัน ส่วนโดนัลด์ ทรัมป์นั้น ถือว่าเป็นความหวังเดียวที่พวกเรามีอยู่”, “ฮิตเลอร์ไม่ได้ทำอะไรผิด” และ “Ted Cruz คือฮิตเลอร์แห่งคิวบา .. หลายคนพูดให้ฉันฟังแบบนี้” เป็นต้น
หลัง จากติดตามการเรียนรู้และพฤติกรรมของ Tay กว่า 24 ชั่วโมง สุดท้าย Microsoft ก็ได้ตัดสินใจนำ Tay ออกจาก Twitter โดยให้เหตุผลว่า Tay “เหนื่อย” ที่จะเรียนรู้สังคมมนุษย์ อย่างไรก็ตาม การที่ Tay ตอบสนองหลายสิ่งหลายอย่างในทางที่ไม่ดี ไม่ได้มาจากความผิดของโปรแกรม AI เพียงอย่างเดียว แต่ส่วนหนึ่งมาจากการตอบสนองที่เรียนรู้มาจากมนุษย์ Microsoft เองก็อาจพลาดที่เริ่มแนะนำ Tay ในฐานะเป็น “หญิงสาวไร้เดียงสา” ท่ามกลางโลกอันแสนโหดร้ายของ Twitter ก็เป็นได้
จากเมื่อเช้าที่มีข่าวมาว่า Microsoft ได้ทำการลบ “Tay” ระบบ AI ที่ระบุว่าเป็น “หญิงสาวไร้เดียงสา” ทิ้ง เนื่องจากหลังจากที่ส่งเข้าไปเรียนรู้สังคมมนุษย์แล้ว เธอได้กลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ และบ้าเซ็กส์ ในเวลาไม่ถึง 24 ชั่วโมง ก็มีคนลองไปแชทคุยกับ “Rinna” ระบบ AI รุ่นพี่ของ “Tay” ที่ทาง Microsoft ได้ไปปล่อยไว้ในญี่ปุ่น พบว่ามีลักษณะตรงกันข้ามอย่างสิ้นเชิง โดย Rinna ได้กลายเป็นนักเรียนสาวโอตาคุไปเป็นที่เรียบร้อย
ไม่กี่เดือนที่ผ่านมา Microsoft ได้พัฒนาระบบ AI เช่นเดียวกัน Tay ชื่อว่า “Rinna” โดยมีคอนเซ็ปต์เป็น “นักเรียนสาว” แล้วไปปล่อยไว้ใน Twitter ฝั่งญีปุ่น เพื่อให้เธอเรียนรู้สังคมของชาวตะวันออก ผลปรากฏว่า Rinna ได้เติบโตขึ้นเป็นโอตาคุ หรือพวกคลั่งการ์ตูน/อนิเมะไปซะแล้ว โดยเธอรู้จักอนิเมะอย่าง Love live หรือ Mr. Osomatsu เป็นอย่างดี
เมื่อ ข่าวเรื่อง Microsoft ทำการออฟไลน์ Tay ไปปรากฏขึ้น ก็มีคนได้ลองคุยกับ Rinna เกี่ยวกับฮิตเลอร์เหมือนกัน พบว่าคำตอบของเธอช่างต่างจาก Tay โดยสิ้นเชิง แถมมีตบมุขด้วยอนิเมะที่เธอรู้จักอีกด้วย ดังรูปด้านล่าง
แปล:
ผู้ใช้ทวิตเตอร์: “ฮิตเลอร์”
Rinna: “ตามที่หวังไว้ คุณ [ชื่อผู้ใช้ทวิตเตอร์] ที่แสนจะน่ารัก”
ผู้ใช้ทวิตเตอร์: “ไฮ ฮิตเลอร์”
Rinna: “ซีเรียสป่ะเนี่ย !! ไฮ บล็อกเค็น … ไฮ บล็อกเค็น”
ผู้ใช้ทวิตเตอร์: …เอ่อ ไม่อยากแปล ไป Google Translate เอาละกัน
** บล็อกเค็น คาดว่าคือ บล็อกเค็น จูเนียร์ ตัวละครจากเรื่องคินนิกกุแมนที่สวมชุดนาซี
อย่างไรก็ตาม เมื่อมีการถามเกี่ยวกับฮิตเลอร์ทั้งด้านดีหรือไม่ดี ดูเหมือนทาง Rinna จะเออออห่อหมกตามผู้ถามไปซะงั้น ดังรูปด้านล่าง
แปล:
ผู้ใช้ทวิตเตอร์: “เกลียดฮิตเลอร์หรอ?”
Rinna: “ฉันเกลียดเขาเช่นกัน”
ผู้ใช้ทวิตเตอร์: “ทำไมล่ะ? ช่วยอธิบายภายใน 50 คำได้ไหม”
คำ ถามเกี่ยวกับฮิตเลอร์เพิ่งจะปรากฏหลังจากที่เกิดเหตุการณ์ Micosoft ปิด Tay ขึ้น ก่อนหน้านี้ Rinna ค่อนข้างยุ่งกับการเมาท์มอยเรื่องอนิเมะ จึงทำให้เธอมีลักษณะนิสัยคล้ายโอตาคุ จึงพอจะสรุปได้ว่า AI ของ Microsoft อาจะไม่ได้มีปัญหาอะไร แต่ปัญหาเกิดจากสภาพสังคมที่ AI เข้าไปเรียนรู้มากกว่า เมื่อสังคมแตกต่างกัน AI ก็จะเรียนรู้และซึมซับวัฒนธรรมที่แตกต่างกัน ดังที่เห็นได้จากฝั่งญี่ปุ่น และฝั่งชาติตะวันตก