[Free] Simple FaceTracking Settings for Pon&Chune(ぽんとちゅね)
- v1.0+Digital0 JPY
- 投げ銭 (Donation)Digital300 JPY
![[Free] Simple FaceTracking Settings for Pon&Chune(ぽんとちゅね)](https://booth.pximg.net/cb6678e3-da31-405d-a47c-22e799f1947d/i/6882104/a1988a40-7c48-47f1-b092-db3a5c66f9c3_base_resized.jpg)
Simple FaceTracking Settings for Pon&Chune(ぽんとちゅね) Jerry's FaceTracking Templates을 기반으로 기본 BlendShapes만 사용하여 제작된 Face Tracking Settings입니다. =============================== This Face Tracking Setting is created using only the default BlendShapes, based on Jerry's Face Tracking Templates. =============================== [日本語の場合、翻訳機を使用] Jerry's Face Tracking Templatesをベースに、基本のBlendShapesのみを使用して作成されたFace Tracking Settingsです
Requirements
- Original 3D Model オリジナル3Dモデル「ぽんとちゅね pon&chune」 https://sisters.booth.pm/items/5335595 - Modular Avatar https://modular-avatar.nadena.dev/ - VRCFaceTracking v5.0+ https://docs.vrcft.io/
How to use
1. 프로젝트에 ModularAvatar를 먼저 import 해주세요 https://modular-avatar.nadena.dev/ 2. "Assets/K-ino/SimpleFaceTracking/FaceTracking MA for Pon.prefab" (or Chune.prefab) 해당 prefab을 사용하시려는 Pon(or Chune) prefab 하위에 추가해 주세요. =============================== 1. Please import ModularAvatar into your project first. https://modular-avatar.nadena.dev/ 2. Add "Assets/K-ino/SimpleFaceTracking/FaceTracking MA for Pon.prefab" (or Chune.prefab) as a child of the Pon(or Chune) prefab you want to use. =============================== 1. 最初に、プロジェクトに ModularAvatar をインポートしてください。 https://modular-avatar.nadena.dev/ 2. 「Assets/K-ino/SimpleFaceTracking/FaceTracking MA for Pon.prefab」 (or Chune.prefab)を、使用したい Pon (or Chune)のPrefabの子オブジェクトとして追加してください。
Precautions
기본 BlendShapes의 조합만으로 표현하기 어려운 표정은 Tracking 되지 않습니다. 예시) - 혀의 움직임 - 입술의 정교한 트래킹 VRChat에서의 이용을 상정하고 제작되었습니다. Meta Quest Pro 위주로 테스트되었습니다. 비정상적인 동작이 발견될 경우 Booth Message 부탁드립니다. 사용 규약은 Original Avatar Model과 같습니다. =============================== Facial expressions that are difficult to express using only a combination of basic BlendShapes are not tracked. Examples: - Movement of Tongue - Precise lip tracking It was created with usage in VRChat in mind. Tested mainly on Meta Quest Pro. If you notice any unusual behavior, please send me a Booth Message. Terms of use are the same as the Original Avatar Model. =============================== 基本のBlendShapesの組み合わせだけでは再現が難しい表情は、Trackingされません。 例: - 舌の動き - 精密な唇のトラッキング VRChatでの使用を想定して制作されました。 Meta Quest Proを中心にテストされています。 異常な動作が見られた場合は、Booth Messageでご連絡ください。 使用規約はOriginal Avatar Modelと同じです。
Additional features
Menu를 이용하여 양 손가락을 사용한 눈의 표현 컨트롤을 On/Off할 수 있습니다. (자세한 내용은 두 번째 영상 참조) =============================== You can use the menu to toggle the two-finger eye expression control on and off. (See the second video for more information.) =============================== Menuを利用して、両指を使った目の表現コントロールをオン/オフできます。 (詳細は2つ目の動画を参照してください。)
Credits
[VRCFaceTracking] https://github.com/benaclejames/VRCFaceTracking [OSC mooth] https://github.com/regzo2/OSCmooth [Adjerry91] https://github.com/Adjerry91 https://adjerry91.booth.pm/ [Modular Avatar] https://github.com/bdunderscore
Update
v1.0.0 [2025.05.05] - Release