อย่างที่ทราบกันดีว่า “Disney’s Mufasa: The Lion King มูฟาซา: เดอะ ไลอ้อน คิง” ผสมผสานเทคนิคการถ่ายทำภาพยนตร์แบบ Live-Action เข้ากับภาพคอมพิวเตอร์กราฟิกที่เหมือนจริง (Photoreal Computer-Generated Imagery) จนทำให้ภาพรวมทางภาพและอารมณ์ของหนังสวยสมจริงอย่างน่าทึ่ง แต่รู้ไหมว่านอกจากเทคนิคดังกล่าวแล้ว เบื้องหลังการสร้างภายนตร์เรื่องนี้ยังเต็มไปด้วยเทคโนโลยีการสร้างภาพยนตร์ที่ล้ำสมัย ซึ่งมีส่วนสำคัญอย่างมากในการทำให้ทุกองค์ประกอบในเรื่องสมบูรณ์แบบและตราตรึงใจคนดู จนได้รับคำชมอย่างล้นหลามทันทีที่เข้าฉาย
เพื่อสร้างสรรค์งานภาพให้สมจริงและมอบชีวิตให้กับตัวละครใน “Disney’s Mufasa: The Lion King มูฟาซา: เดอะ ไลอ้อน คิง” ผู้กำกับ แบร์รี่ เจนกินส์ (Barry Jenkins) ได้ทำงานร่วมกับแอนิเมเตอร์และดิจิทัลอาร์ตติสของ Moving Picture Company (MPC) ที่เคยฝากผลงานไว้ใน “The Jungle Book” ปี 2016 และ “The Lion King” ปี 2019 โดยเป็นการผสมผสานระหว่างแอนิเมชัน, CGI ที่เหมือนจริง และเทคนิคการสร้างภาพยนตร์แบบ Live-action เข้าด้วยกัน เช่นเดียวกับ “The Lion King” เมื่อปี 2019 ซึ่งครั้งนั้นก็สร้างความตื่นเต้นให้กับผู้ชมได้ไม่น้อยกับรูปลักษณ์ใหม่ที่สมจริงของซิมบ้า ทว่าในครั้งนี้ด้วยความก้าวหน้าทางเทคโนโลยีที่มากขึ้น ยิ่งทำให้งานภาพและตัวละครสัตว์ในเรื่องดูสมจริงและสื่ออารมณ์ได้ดีกว่าเดิม ดังที่ผู้กำกับวิชวลเอฟเฟกต์ อดัม วัลเดซ (Adam Valdez) กล่าวว่า “เมื่อคอมพิวเตอร์ทำงานได้เร็วขึ้นและ Unreal Engine มีความซับซ้อนมากขึ้น ทำให้เราสามารถสร้างความรู้สึกที่เหมือนภาพถ่ายที่สื่ออารมณ์และความเชื่อมั่นในภาพยนตร์ได้ดียิ่งขึ้น” นั่นจึงเป็นอีกหนึ่งปัจจัยที่ทำให้ทุกคนที่ได้ดูต่างประทับใจในงานภาพของ “Disney’s Mufasa: The Lion King มูฟาซา: เดอะ ไลอ้อน คิง”
อีกหนึ่งเทคโนโลยีที่มีส่วนสำคัญในการสร้างสรรค์ภาพยนตร์เรื่องนี้คือ Virtual Reality หรือ VR ซึ่งเรียกได้ว่ามีบทบาทอย่างมาก เพราะถูกนำมาใช้ตั้งแต่การสำรวจโลเคชันของ แบร์รี่ เจนกินส์ และ มาร์ก ฟรายด์เบิร์ก (Mark Friedberg) โปรดักชันดีไซเนอร์ ซึ่งไปท่องแอฟริกาแบบเสมือนจริง (Virtual Road Trip) เพื่อเก็บข้อมูลให้ทีมโปรดักชันดีไซน์นำมาออกแบบสร้างฉาก และเพื่อให้ได้มุมมองสามมิติของฉากที่สร้างขึ้น รวมถึงวางโครงสร้าง ตรวจสอบช็อต มุมกล้อง และฉากในโลกของมูฟาซาให้สมบูรณ์แบบที่สุด ทีมงานก็มักจะสวมแว่น VR เดินทางไปยังแอฟริกาผ่านโลกเสมือนจริง ซึ่งเลียนแบบความรู้สึกของการเข้าไปอยู่ในฉาก Live-action ให้เห็นและสัมผัสกับฉากหรือสถานที่ได้ทางกายภาพ ที่น่าทึ่งคือเทคโนโลยี VR และมัลติมีเดียที่ใช้ใน VFX (Visual effects) ยังสามารถจำลอง Stereoscopic Vision การมองเห็นโลกในแบบที่มนุษย์และสิงโตเห็น หรือการมองเห็นด้วยสองตา (Binocular Vision) ในลักษณะปกติที่เรารับรู้ถึงมิติของพื้นที่นั้น ๆ ด้วย จึงช่วยให้ทีมงานสร้างฉากต่าง ๆ ได้อย่างสมจริง
เมื่อสร้างแบบจำลองเบื้องต้นของสัตว์และฉากต่าง ๆ ขึ้นมาแล้ว ทีมโปรดักชันดีไซน์จะนำเข้าสู่คอมพิวเตอร์ ก่อนที่ผู้กำกับภาพ เจมส์ แล็กซ์ตัน (James Laxton) จะทำงานผ่านจอมอนิเตอร์หลายเครื่อง เนรมิตให้องค์ประกอบแห้ง ๆ เหล่านั้นกลายเป็นฉากเสมือนจริงแบบกึ่งสมบูรณ์ ด้วยเทคโนโลยีใหม่ล่าสุด ซึ่งรวมถึงโปรแกรมพิเศษที่เรียกว่า QuadCap ที่ถูกออกแบบมาให้ผู้กำกับและผู้กำกับภาพสามารถควบคุมกล้องตลอดจนการจัดแสงด้วยตัวเองและทำการถ่ายซ้ำจนกว่าจะได้สิ่งที่ต้องการ ซึ่งช่วยย่นเวลาในการทำงานได้ดี
ในส่วนของตัวละครต่าง ๆ ผู้กำกับวิชวลเอฟเฟกต์ อดัม วัลเดซ (Adam Valdez) ร่วมกับนักแสดงและ แบร์รี่ เจนกินส์ มอบชีวิตให้ทุกตัวละครเคลื่อนไหว แสดงออกทางอารมณ์และพฤติกรรมได้อย่างสมจริง โดยทำงานอย่างใกล้ชิดกับทีมถ่ายภาพยนตร์ ทีมตัดต่อ และทีมโปรดักชันดีไซน์ ผ่านโลกเสมือนจริง ทุกวันศิลปินจะประจำอยู่หน้าเครื่องคอมพิวเตอร์ ใช้ซอฟต์แวร์ที่พัฒนามาจากโลกของเกมเพื่อเติมเต็มวิสัยทัศน์ของเจนกินส์ให้เป็นจริง โดยมีบทภาพยนตร์และคำอธิบายฉากเต็มรูปแบบเป็นไกด์ไลน์ ควบคู่ไปกับการตอบรับคำสั่งของผู้กำกับผ่านซอฟต์แวร์ 3D การทำงานรูปแบบนี้ทำให้สามารถปรับเปลี่ยนและตอบสนองต่อการเปลี่ยนแปลงใด ๆ ที่พวกเขาต้องการได้ตามสิ่งที่เห็น ดังนั้นจึงเป็นการทำงานร่วมกันที่ยอดเยี่ยมมาก
นอกจากนี้ยังมีการถ่ายทำด้วยเทคโนโลยีจับการเคลื่อนไหว (Motion Capture) โดยให้นักแสดงหลายคนสวมบทบาทเป็น มูฟาซา, ซาราบี, ทาก้า, ราฟิกิ รวมถึงซาซู วัลเดซกล่าวว่า “เหล่านักแสดงจะสวมชุดเครื่องมือจับการเคลื่อนไหว และด้วยเทคโนโลยี QuadCap การเคลื่อนไหวของพวกเขาจะถูกตรวจจับไปยังตัวละครสิงโตดิจิทัล โดยเทคโนโลยีนี้จะจัดตำแหน่งการเคลื่อนไหวของส่วนหัวและกระดูกสันหลังของนักแสดงให้ตรงกับหัวและคอของสิงโต และจัดตำแหน่งการเคลื่อนไหวขาของนักแสดงให้ตรงกับขาหน้าของสิงโต จากนั้นจึงจำลองขาหลังและสะโพกของสิงโตให้สอดคล้องกัน ซึ่งผู้กำกับสามารถดู Live Feed ของสิงโตบนหน้าจอผ่าน Unreal Engine ได้เลย เพื่อให้คำแนะนำเกี่ยวกับการแสดงและกล้องแบบ Real-time แก่นักแสดงและผู้กำกับภาพ
อีกทั้งยังมีการเพิ่มการแสดงสีหน้าและลิปซิงก์เพื่อเสริมการแสดงของตัวละคร ให้ผู้กำกับอย่างเจนกินส์เข้าไปดูลำดับที่บันทึกไว้ใน VR เพื่อทำโน้ตให้ทีมนำไปถ่ายทำในแบบเสมือนจริงต่อไป และในส่วนของการแสดงที่มีการเคลื่อนไหวซับซ้อนของสัตว์ เช่น การต่อสู้ หรือการกระโดด จะถูกรวมเข้าไปไว้ใน QuadCap และฉากเสมือนจริง เพื่อสร้างเป็นฉากหลักที่สมบูรณ์ให้เจนกินส์และแล็กซ์ตันสามารถถ่ายทำได้จากทุกมุม
ทั้งหมดนี้เป็นเพียงบางส่วนของการถ่ายทำที่นำเทคโนโลยีล้ำสมัยเข้ามาช่วยให้สามารถสร้างสรรค์ตัวละคร ฉาก และบอกเล่าเรื่องราวใน “Disney’s Mufasa: The Lion King มูฟาซา: เดอะ ไลอ้อน คิง” ได้อย่างสมบูรณ์แบบและตราตรึงใจ ถ้าอยากรู้ว่าเทคโนโลยีเหล่านี้จะสามารถเติมเต็มความยอดเยี่ยมให้กับภาพยนตร์เรื่องนี้ได้มากแค่ไหน ไปพิสูจน์กันได้ในโรงภาพยนตร์ และระบบ IMAX ทั่วประเทศ
“Disney’s Mufasa: The Lion King มูฟาซา: เดอะ ไลอ้อน คิง” เป็นเรื่องราวการก้าวขึ้นสู่อำนาจอย่างเหนือความคาดหมายของราชาผู้เป็นที่รักแห่ง Pride Lands ถ่ายทอดผ่านสายตาและคำบอกเล่าของ “ราฟิกิ” ที่ปรึกษาของอาณาจักร ที่เล่าตำนานของราชามูฟาซา ให้สิงโตน้อย “เคียร่า” ลูกสาวของ “ซิมบ้า” และ “นาล่า” ฟัง โดยมี “ทีโมน” และ “พุมบ้า” ช่วยเสริมลีลาการเล่าเรื่องให้สนุกชวนติดตามมากขึ้น เรื่องราวจะเล่าย้อนไปในอดีต ตั้งแต่เมื่อครั้งที่มูฟาซายังเป็นลูกสิงโตกำพร้าที่พลัดหลงและโดดเดี่ยว กระทั่งบังเอิญได้พบกับ “ทาก้า” สิงโตหนุ่มทายาทแห่งสายเลือดราชาผู้โอบอ้อมอารี นำไปสู่จุดเริ่มต้นของการเดินทางอันยาวไกลของกลุ่มสัตว์ผู้แตกต่างแต่พิเศษที่ออกเดินทางร่วมกันเพื่อค้นหาโชคชะตาของตัวเอง โดยมีศัตรูที่อันตรายและน่ากลัวเป็นบททดสอบความสัมพันธ์
โซเชียลมีเดีย:
X: @DisneyStudiosTH
Instagram: @disneystudiosth
Facebook: @WaltDisneyStudiosTHYoutube: @waltdisneystudiosth
Hashtag: #MufasaTH #มูฟาซา
ที่มา:
ฝ่ายประชาสัมพันธ์
บันทึกภาพ:
ฝ่ายประชาสัมพันธ์
นำเสนอโดย www.starupdate.com หากนำข่าวไปใช้กรุณาอ้างอิงถึง www.starupdate.com ด้วย