Alat Avatar MetaHuman Epic Sekarang Dapat Mengimpor Pindaian Orang Nyata

, , , ,

Epic Games baru-baru ini merilis pembaruan substansial untuk alat pembuatan karakter MetaHuman yang untuk pertama kalinya memungkinkan pengembang mengimpor pindaian orang nyata untuk digunakan dalam aplikasi waktu nyata. Peningkatan ini melihat masa depan di mana siapa pun dapat dengan mudah membawa versi digital realistis dari diri mereka sendiri ke dalam VR dan metaverse pada umumnya.

Alat MetaHuman Epic dirancang untuk memudahkan pengembang membuat berbagai macam model karakter 3D berkualitas tinggi untuk digunakan dalam aplikasi waktu nyata. Alat ini bekerja seperti versi lanjutan dari ‘penyesuai karakter’ yang akan Anda temukan di videogame modern, kecuali dengan kontrol dan ketepatan yang lebih banyak.

Karakter 3D yang dibuat dengan MetaHuman | Gambar milik Epic Games
Pada rilis awal, pengembang hanya dapat mulai merumuskan karakter mereka dari pilihan wajah yang telah ditetapkan, dan kemudian menggunakan alat dari sana untuk memodifikasi tampilan karakter sesuai selera mereka. Secara alami banyak yang bereksperimen dengan mencoba membuat kemiripan mereka sendiri, atau selebriti yang dikenal. Meskipun pembuatan karakter MetaHuman sangat cepat—dibandingkan dengan membuat model yang sebanding secara manual dari awal—mencapai kemiripan dengan orang tertentu tetap menjadi tantangan.

Tapi sekarang rilis terbaru menyertakan fitur ‘Mesh to MetaHuman’ baru yang memungkinkan pengembang mengimpor pemindaian wajah orang sungguhan (atau pahatan 3D yang dibuat di perangkat lunak lain) dan kemudian membuat sistem secara otomatis menghasilkan wajah MetaHuman berdasarkan pemindaian, termasuk rigging untuk animasi.

Namun, masih ada beberapa batasan. Pertama, rambut, tekstur kulit, dan detail lainnya tidak dibuat secara otomatis; pada titik ini fitur Mesh ke MetaHuman terutama difokuskan pada pencocokan topologi keseluruhan kepala dan segmentasi untuk animasi realistis. Pengembang masih perlu menyediakan tekstur kulit dan melakukan beberapa pekerjaan tambahan untuk mencocokkan rambut, rambut wajah, dan mata dengan orang yang ingin mereka tiru.

Alat MetaHuman masih dalam akses awal dan ditujukan untuk pengembang Unreal Engine. Dan sementara kami tidak cukup pada tahap di mana siapa pun dapat dengan mudah mengambil beberapa foto kepala mereka dan menghasilkan versi digital yang realistis dari diri mereka sendiri — cukup jelas bahwa kami sedang menuju ke arah itu.

Namun, jika tujuannya adalah untuk membuat avatar diri kita yang benar-benar dapat dipercaya untuk digunakan dalam VR dan metaverse pada umumnya, masih ada tantangan yang harus diselesaikan.

Membuat model yang terlihat seperti Anda saja tidak cukup. Anda juga membutuhkan model untuk bergerak seperti Anda.

Setiap orang memiliki ekspresi wajah dan tingkah laku yang unik yang mudah dikenali oleh orang yang mengenalnya dengan baik. Bahkan jika model wajah dicurangi untuk animasi, kecuali jika itu dicurangi dengan cara yang khusus untuk ekspresi Anda dan mampu menggambar dari contoh nyata ekspresi Anda, avatar realistis tidak akan pernah terlihat seperti Anda saat sedang bergerak.

Bagi orang yang tidak mengenal Anda, itu tidak terlalu penting karena mereka tidak memiliki dasar ekspresi Anda untuk ditarik. Tapi itu penting untuk hubungan terdekat Anda, di mana bahkan sedikit perubahan pada ekspresi wajah dan tingkah laku seseorang yang biasa dapat berimplikasi pada berbagai kondisi seperti terganggu, lelah, atau bahkan mabuk.

Dalam upaya untuk mengatasi tantangan khusus ini, Meta (jangan dikelirukan dengan alat MetaHumans Epic) telah bekerja pada sistemnya sendiri yang disebut Codec Avatars yang bertujuan untuk menganimasikan model realistis wajah Anda dengan animasi yang benar-benar dapat dipercaya yang unik untuk Anda— secara real-time.

Mungkin di masa depan kita akan melihat perpaduan sistem seperti MetaHumans dan Codec Avatars; satu untuk memungkinkan pembuatan avatar digital seperti aslinya dengan mudah dan yang lainnya untuk menganimasikan avatar itu dengan cara yang unik dan dapat dipercaya Anda.

Source