Beruflich Dokumente
Kultur Dokumente
net/publication/220352863
Virtual Try-On.
CITATIONS READS
3 371
10 authors, including:
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Volker Luckas on 22 May 2014.
Virtual Try-On
Virtuelle Textilien in der Graphischen
Datenverarbeitung
Markus Wacker · Michael Keckeisen
Stefan Kimmerle · Wolfgang Straßer
Volker Luckas · Clemens Groß
Arnulph Fuhrmann · Mirko Sattler
Ralf Sarlette · Reinhard Klein
Die physikalische Simulation von Textilien und günstigen Herstellung von Maßkleidung zu lösen.
deren realistische Visualisierung setzt sich interdis- Dabei wird die vollständige Prozesskette von der
ziplinär aus Bereichen der Mathematik, Physik, Auswahl der Kleidung bis hin zur Visualisierung
Materialwissenschaften und Computergraphik zu- und individuellen Passformbeurteilung abgebildet.
sammen. Dabei wird das physikalische Verhalten Im Folgenden wird diese Prozesskette für die
von Bekleidung modelliert, die auf realen Schnitt- Kleidersimulation in drei Komponenten beschrieben:
musterdaten basiert, und es sind effiziente numeri- · Die automatische Vorpositionierung, die einen guten Aus-
sche Verfahren zur Behandlung der auftretenden gangszustand der einzelnen Schnittteile für die Simulation
Differentialgleichungen zu entwickeln. Schließlich liefert und die Nahtinformationen für das Vernähen der
sollen die Ergebnisse fotorealistisch dargestellt wer- Schnittteile zum Gesamtkleidungsstück generiert.
den (Abb.1). Das Ziel des BMBF-Projekts „Virtual · Die physikalische Faltenwurfberechnung am virtuellen
Try-On – Von der virtuellen Anprobe zum Maß- Menschmodell. Hier werden die Schnittteile am Avatar ver-
schnitt“ ist es, die Probleme der virtuellen Anprobe näht und der Faltenwurf mit realen Materialparametern
in einer Boutique oder im Internet und der kosten- berechnet.
· Schließlich die realistische und interaktive Visualisierung
des Stoffes mit realen Reflexionseigenschaften unter natür-
lichen Beleuchtungsbedingungen.
Vorpositionierung
Am Anfang der Produktionskette eines Kleidungs-
stücks in der Bekleidungsindustrie steht ein hoch-
DOI 10.1007/s00287-004-0442-5
© Springer-Verlag 2004
504 Informatik_Spektrum_13_Dezember_2004
spezialisiertes CAD-System [1,19]. Darin wird jedes
Kleidungsstück durch mehrere zweidimensionale
Schnittteilgeometrien beschrieben. Zusätzlich wer-
den Informationen bereitgestellt, wie die Schnitt-
teile miteinander zu vernähen sind. Will man mit
diesen Daten einen virtuellen Menschen (kurz
Avatar) bekleiden, so müssen die Schnittteile mit-
einander vernäht werden. Eine naive Vorgehens-
weise wäre die Simulation des realen Bekleidungs-
vorgangs nach dem Vernähen der Schnittteile. Abb. 2 Virtual-Try-On-Prozesskette. Basierend auf den
Dieser Ansatz ist jedoch viel zu aufwändig, wenn Schnittteilen ( links) wird die Vorpositionierung ( rechts)
man beispielsweise an das Hineinschlüpfen in einen durchgeführt und danach die Simulationskette gestartet
Pullover denkt. Bedeutend einfacher durchführbar
sind die Techniken, welche bei Volino u. Magnenat-
Thalmann [29,30] vorgeschlagen wurden. Dort wer- Mit Hilfe unseres Ansatzes können mehrere Klei-
den die virtuellen Schnittteile zunächst interaktiv dungsstücke gleichzeitig und vollkommen automa-
um den Avatar positioniert, um sie anschließend tisch vorpositioniert werden. Dazu wird eine Serie
am Körper zu vernähen. Diese Vorgehensweise fin- von übereinander liegenden Hüllflächen, auf denen
det ihre Anwendung zum Beispiel in der Filmin- die Schnittteile der verschiedenen Kleidungsstücke
dustrie [28]. positioniert werden, berechnet. Dabei trägt jede
In zeitkritischen Anwendungen, wie beispiels- neue Hüllfläche den bereits vorpositionierten
weise einer vir-tuellen Boutique, wo der Kunde vor Schnittteilen Rechnung, indem sie diese mit um-
einem virtuellen Spiegel das Passverhalten der schließt. Die vorpositionierten Schnittteile liegen
Kleidungsstücke an seinem digitalen Ebenbild be- sehr kompakt am
trachten will, muss dieser Vorgang automatisiert Körper, wobei in den meisten Fällen Kollisionen
ablaufen. Aus diesem Grund werden in einem neu- vermieden werden können. Mit dieser Vorgehens-
en Ansatz [9,12] die Schnittteile automatisch auf weise ist es leicht möglich, eine so genannte Beklei-
abwickelbaren Hüllflächen, wie Zylinder oder Ke- dungsreihenfolge zu bestimmen bzw. eine vorgege-
gel, um die einzelnen Körpersegmente des Avatars bene zu ändern. Beispielsweise lässt sich einfach
positioniert (Abb. 2). Da die Positionen der vorpo- durch Ändern der Reihenfolge beim Auswählen der
sitionierten Schnittteile als Anfangswerte für die Kleidungsstücke festlegen, ob man sein Hemd in
anschließende physikalisch basierte Simulation die- der Hose oder darüber tragen will.
nen, muss darauf geachtet werden, dass die vorposi-
tionierten Schnittteile möglichst unverzerrt um den Faltenwurfsimulation
Avatar liegen. Eine hohe Ausgangsdehnung der An die automatische Vorpositionierung der
Schnittteile würde zu falschen Endergebnissen oder Schnittteile schließt sich die physikalische Falten-
sogar zu Divergenzen in der physikalisch basierten wurfsimulation der Bekleidung an. Hier wird unter
Simulation führen. Die Abwickelbarkeit der Hüllflä- Berücksichtigung der Materialeigenschaften der
chen garantiert hierbei, dass die Schnittteile nicht Textilien deren dynamisches Verhalten simuliert,
gedehnt werden. Des Weiteren werden Kollisionen um eine Visualisierung am Avatar zu ermöglichen
zwischen dem Körper und den Schnittteilen bzw. und Informationen über die Passgenauigkeit für
zwischen den einzelnen Schnittteilen vermieden. den digitalisierten Kunden zu erhalten.
Zwar sind in den letzten Jahren Techniken [4,2,23] Das entwickelte Modell zur physikalischen
vorgestellt worden, die in der Lage sind, solche Textilsimulation basiert auf einer Diskretisierung
Durchdringungen aufzulösen, jedoch garantieren der kontinuierlichen Elastizitätsgleichungen durch
kollisionsfreie Ausgangspositionen wesentlich kür- Finite Elemente [7]. Hierbei wird das viskoelasti-
zere Berechnungszeiten. Zusätzlich sollten zwei sche Verhalten mit Hilfe einer linearen Verzerrungs-
korrespondierende Nahtkurven möglichst nahe formulierung approximiert, um eine effiziente
beieinander liegen, um die zu simulierenden Wege Zeitintegration zu ermöglichen. Allerdings ist hier-
beim Zusammenziehen der Nähte zu verkürzen. bei zu beachten, dass eine lineare Beschreibung der
Informatik_Spektrum_13_Dezember_2004 505
} VIRTUAL TRY-ON
Verzerrung nur für kleine Verschiebungen benutzt wendet (Abb. 3). Zur Kollisionsdetektion werden
werden kann. Dies kann für Textilien nicht ange- die Hierarchien der Kollisionsobjekte traversiert
nommen werden, da sie bezüglich Biegung gegen- und gegenseitig auf Kollision getestet. Kollidieren
über Zug und Scherung einen sehr geringen Wider- die Hüllkörper zweier Elternknoten nicht, so kann
stand besitzen und damit hohe Deformationen die weitere Traversierung der darunter liegenden
auftreten können. Diese Einschränkung wird in Knoten abgebrochen werden. Anderenfalls wird auf
dem hier verwendeten Modell dadurch behoben, Blattebene ein Kollisionstest der entsprechenden
dass ein mitrotierender lokaler Referenzrahmen Facetten durchgeführt, wobei die Abstände von
für jedes finite Element konstruiert wird, bezüglich Kanten-Kanten, sowie Vertex-Dreiecks-Paaren be-
dem die Berechnungen der inneren Kräfte erfolgen. stimmt werden. Da sich bei animierten Objekten
Die Zeitintegration schließlich erfolgt durch ein die Positionen der Vertices in jedem Zeitschritt
implizites Euler-Verfahren, wobei in jedem Zeit- ändern, ist auch ein Neuaufbau der Hüllkörper not-
schritt ein dünn besetztes lineares Gleichungssys- wendig. Effektiv ist es, die Hierarchie von unten
tem zu lösen ist. Hierzu wird das Verfahren der nach oben („bottom-up“) zu traversieren und da-
konjugierten Gradienten eingesetzt. Für sehr detail- bei zu aktualisieren. Zusätzlich wird die zeitliche
lierte geometrische Modelle von Textilien lässt Kohärenz zwischen mehreren Zeitschritten ausge-
sich die implizite Integration zudem effizient paral- nutzt, um diesen Aktualisierungsvorgang nicht in
lelisieren [15]. jedem Zeitschritt für alle Teile der Hierarchie
Mit dem beschriebenen Verfahren lassen sich durchführen zu müssen [23].
gemessene Materialparameter wie Zugkräfte in
Kett- und Schussrichtung, Scherkräfte, Biegekräfte
in Kett- und Schussrichtung und Querkontraktion
modellieren. Aus den im Kawabata-Messsystem
[14] ermittelten Hysteresekurven werden dazu die
entsprechenden viskoelastischen Parameter zur
Beschreibung der Stoffdeformationen extrahiert.
Externe Kräfte wie Luftwiderstand und Effekte von
Windströmungen lassen sich ebenfalls in das
Modell integrieren [16] und tragen zu einer realisti-
schen Simulation und einem realistischen Falten-
wurf bei.
Da die dynamische Elastizitätsgleichung gelöst
wird, können im Simulator auch bewegte Szenen Abb. 3 Verschiedene Stufen der verwendeten k -DOP-
verarbeitet werden. So ist es z. B. möglich, falls der Hierarchie am Beispiel des verwendeten Avatars
Avatar mit Bewegungsdaten animiert wurde, die
Kleidung auf dem bewegten Avatar zu simulieren.
Der Kunde kann dadurch besser den Fall des Stoffs Nachdem alle kollidierenden Primitiva der
und die Passform der ausgewählten Kleidung beur- Objekte detektiert wurden, dient die Kollisionsant-
teilen. wort dazu, wieder einen gültigen, also kollisions-
Eine der großen Herausforderungen eines freien Zustand herzustellen. In dem vorgestellten
Simulationssystems ist es sicherzustellen, dass der Simulator geschieht dies durch zwei unterschied-
simulierte Stoff nicht den Avatar durchdringt oder liche Verfahren. Zum einen kann die Bewegung ein-
es zu Selbstdurchdringungen des Stoffs kommt. zelner Vertices in bestimmte Richtungen durch
Dafür werden leistungsfähige Kollisionsdetektions- Zwangsbedingungen eingeschränkt werden, was
und Kollisionsantwortverfahren eingesetzt [27]. direkt im Differentialgleichungslöser geschieht.
Um die intrinsische quadratische Komplexität der Dadurch kann ein weiteres Eindringen der Objekte
Kollisionsdetektion (jedes Dreieck des Stoffes kann ineinander verhindert werden. Bereits eingedrun-
theoretisch mit jedem Dreieck der Szene kollidie- gene Vertices werden wieder an die Oberfläche des
ren) zu beschleunigen, wird eine Hierarchie von entsprechenden Objekts gesetzt. Andererseits wer-
speziellen Hüllkörpern, so genannte k -DOPS, ver- den zur Behandlung von Selbstkollisionen absto-
506 Informatik_Spektrum_13_Dezember_2004
Abb. 4 Virtual-Try-On-Prozesskette. Verschiedene Schritte der
Simulation
Informatik_Spektrum_13_Dezember_2004 507
} VIRTUAL TRY-ON
508 Informatik_Spektrum_13_Dezember_2004
Abb. 9 Virtual-Try-On-Prozesskette. Basierend auf den Schnittteilen ( links oben) wird die Vorpositionierung
(rechts oben) durchgeführt und danach die Simulationskette gestartet ( untere Reihe mit mehreren Simulationsschritten)
Informatik_Spektrum_13_Dezember_2004 509
} VIRTUAL TRY-ON
Abb. 9 Demonstration der BTF-Eigenschaften verschiedener Materialien unter natürlicher Beleuchtung mit hoher Dynamik (HDR).
Links jeweils BTF-Rendering, rechts normale Texturierung mit herkömmlich aufgenommener Frontaltextur. Die Mesostruktur und
das charakteristische Reflexionsverhalten fehlen vollständig, das Look & Feel geht verloren, was insbesondere in den Ausschnitts-
vergrößerungen zu sehen ist. In den unteren beiden Reihen wurden HDR-Aufnahmen aus [6] verwendet
510 Informatik_Spektrum_13_Dezember_2004
Zusammenfassung 12. Gross, C.; Fuhrmann, A.; Luckas,V.: Automatic pre-positioning of virtual clothing.
In: Proceedings of the Spring Conference on Computer Graphics, pp. 113–122,
Durch die beschriebenen Verfahren und die Ver- April 2003.
wendung realer Eingabedaten, von CAD-Schnitttei- 13. Hauth, M.; Etzmuss, O.; Eberhardt, B.; Klein, R.; Sarlette, R.; Sattler, M.; Daubert, K.;
Kautz, J.: Cloth animation and rendering, September 2002. Eurographics Tutorial.
len über physikalische Materialparameter bis hin 14. Kawabata, S.:The standardization and analysis of hand evaluation.The Textile
zu gemessenen BTFs, gelingt eine realistische Dar- Machinery Society of Japan, Osaka, 1980.
15. Keckeisen, M.; Blochinger,W.: Parallel implicit integration for cloth animations on
stellung von Textilien. Die im Virtual-Try-On distributed memory architectures. In: Eurographics Symposium on Parallel Graphics
Projekt entwickelten Techniken sollen es in naher and Visualization, 2004.
16. Keckeisen, M.; Kimmerle, S.;Thomaszewski, B.; Wacker, M.: Modelling effects of wind
Zukunft ermöglichen, Maßkonfektion „on demand“ fields in cloth animations. Journal of WSCG, 12(2):205–212, February 2004.
herzustellen, die dem jeweiligen Kunden exakt 17. Keckeisen, M.; Stoev, S.L.; Feurer, M.; Straßer,W.: Interactive cloth simulation in virtual
environments. In: Proc. IEEE Virtual Reality, 2003.
passt (Abb. 9, 10). 18. Kimmerle, S.; Keckeisen, M.; Mezger, J.; Wacker, M.:TüTex: A cloth modelling system
for virtual humans. In: Proc. 3D Modelling, 2003.
Danksagung 19. Lectra. http://www.lectra.com/
20. Meseth, J.; Müller, G.; Klein, R.: Preserving realism in real-time rendering of bidirectio-
Das Projekt Virtual Try-On wird vom bmb+f nal texture functions. In: OpenSG Symposium 2003, pp. 89–96. Eurographics Associa-
gefördert. Wir danken allen Projektpartnern für tion, Switzerland, April 2003.
21. Meseth, J.; Müller, G.; Klein, R.: Reflectance field based real-time, high-quality
die Bereitstellung der Ausgangsdaten. Nähere rendering of bidirectional texture functions. Computers and Graphics, 28(1):103–112,
Informationen zu dem Projekt finden sich unter February 2004.
22. Meseth, J.; Müller, G.; Sattler, M.; Klein, R.: BTF rendering for virtual environments.
http://www.virtualtryon.de. In:Virtual Concepts 2003, pp. 356–363, November 2003.
23. Mezger, J.; Kimmerle, S.; Etzmuß, O.: Hierarchical techniques in collision detection
for cloth animation. Journal of WSCG, 11(2):322–329, 2003.
Literatur 24. Müller, G.; Meseth, J.; Klein, R.: Compression and real-time rendering of measured
1. assyst – Gesellschaft für Automatisierung, Software und Systeme mbH. BTFs using local PCA. In: Ertl,T.; Girod, B.; Greiner, G.; Niemann, H.; Seidel, H.-P.;
http://www.assyst-intl.com/ Steinbach, E.; Westermann, R. (eds):Vision, modeling and visualisation 2003,
2. Baraff, D.; Witkin, A.; Kass, M.: Untangling cloth. ACM Transactions on Graphics pp. 271–280. Akademische Verlagsgesellschaft Aka GmbH, Berlin, November 2003.
(Proceedings of ACM SIGGRAPH 2003), 22(3):862–870, 2003. 25. Müller, G.; Meseth, J.; Klein, R.: Fast environmental lighting for local-PCA encoded
3. BTF-Database Bonn. http://btf.cs.uni-bonn.de BTFs.To appear in proceedings of Computer Graphics International 2004 (CGI2004),
4. Bridson, R.; Fedkiw, R.P.; Anderson, J.: Robust treatment of collisions, contact, June 2004.
and friction for cloth animation. In: Proceedings of the Conference on Computer 26. Sattler, M.; Sarlette, R.; Klein, R.: Efficient and realistic vsualization of cloth.
Graphics (Siggraph2002), pp. 99–104, NY, July 21–25 2002. ACM Press. In: Eurographics Symposium on Rendering 2003, June 2003.
5. Dana, K.J.; Ginneken, B. van; Nayar, S.K.; Koenderink, J.J.: Reflectance and texture 27. Teschner, M.; Kimmerle, S.; Heidelberger, B.; Zachmann, G.; Raghupathi, L.;
of real-world surfaces. ACM Transactions on Graphics, 1999. Fuhrmann, A.; Cani, M.-P.; Faure, F.; Magnenat-Thalmann, N.; Strasser,W.; Volino, P.:
6. Debevec, P.: Rendering synthetic objects into real scenes: Bridging traditional and Collision detection for deformable objects, 2004. State of the Art Report, Eurographics.
image-based graphics with global illumination and high dynamic range photo- 28. Visual Effects Society. From ivory tower to silver screen. SIGGRAPH 2001 Course
graphy. In: Cohen, M. (ed): SIGGRAPH 98 Conference Proceedings, Annual Conference Notes, 36, 2001.
Series, pp. 189–198. ACM SIGGRAPH, Addison Wesley, July 1998. 29. Volino, P.; Magnenat-Thalmann, N.: Developing simulation techniques for an interac-
7. Etzmuß, O.; Keckeisen, M.; Straßer,W.: A fast finite element solution for cloth model- tive clothing system. In: Proceedings of Virtual Systems and MultiMedia ‚97,
ling. Proc. Pacific Graphics, 2003. pp. 109–118, 1997.
8. Fuhrmann, A.; Gross, C.; Luckas,V.: Interactive animation of cloth including self colli- 30. Volino, P.; Magnenat-Thalmann, N.:Virtual clothing, theory and practice. Berlin
sion detection. Journal of WSCG, 11(1):141–148, February 2003. Heidelberg New York Tokio: Springer 2000
9. Fuhrmann, A.; Gross, C.; Luckas,V.; Weber, A.: Interaction-free dressing of virtual 31. Wacker, M.; Keckeisen, M.; Kimmerle, S.; Mezger, J.: Fortschritte in der Textilsimulation
humans. Computer & Graphics, 27(1):71–82, January 2003. für Fashion on Demand. In:Tagungsband 1. Paderborner Workshop Augmented
10. Fuhrmann, A.; Sobotka, G.; Gross, C.: Distance fields for rapid collision detection Reality Virtual Reality in der Produktentstehung, 2002.
in physically based modeling. In: Proceedings of GraphiCon 2003, pp. 58–65, 32. Wacker, M.; Keckeisen, M.; Stoev, S.L.; Straßer,W.: A comparative study on user perfor-
September 2003. mance in the virtual dressmaker application. In Proc. ACM VRST, 2003.
11. Ganster, B.; Klein, R.; Sattler, M.; Sarlette, R.: Realtime shading of folded surfaces.
In:Vince, J.; Earnshaw, R. (eds): Advances in modelling, animation and rendering.
pp. 465–480. Berlin Heidelberg New York Tokio: Springer 2002
Informatik_Spektrum_13_Dezember_2004 511