Sie sind auf Seite 1von 9

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/220352863

Virtual Try-On.

Article  in  Informatik Spektrum · December 2004


DOI: 10.1007/s00287-004-0442-5 · Source: DBLP

CITATIONS READS
3 371

10 authors, including:

Markus Wacker Wolfgang Straßer


Hochschule für Technik und Wirtschaft Dresden University of Tuebingen
43 PUBLICATIONS   910 CITATIONS    154 PUBLICATIONS   6,107 CITATIONS   

SEE PROFILE SEE PROFILE

Volker Luckas Arnulph Fuhrmann


Technische Hochschule Bingen Technische Hochschule Köln
20 PUBLICATIONS   215 CITATIONS    54 PUBLICATIONS   1,170 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Remote Mixed Reality Collaboration View project

Visual Analytics View project

All content following this page was uploaded by Volker Luckas on 22 May 2014.

The user has requested enhancement of the downloaded file.


} HAUPTBEITRAG / VIRTUAL TRY-ON

Virtual Try-On
Virtuelle Textilien in der Graphischen
Datenverarbeitung
Markus Wacker · Michael Keckeisen
Stefan Kimmerle · Wolfgang Straßer
Volker Luckas · Clemens Groß
Arnulph Fuhrmann · Mirko Sattler
Ralf Sarlette · Reinhard Klein

Die physikalische Simulation von Textilien und günstigen Herstellung von Maßkleidung zu lösen.
deren realistische Visualisierung setzt sich interdis- Dabei wird die vollständige Prozesskette von der
ziplinär aus Bereichen der Mathematik, Physik, Auswahl der Kleidung bis hin zur Visualisierung
Materialwissenschaften und Computergraphik zu- und individuellen Passformbeurteilung abgebildet.
sammen. Dabei wird das physikalische Verhalten Im Folgenden wird diese Prozesskette für die
von Bekleidung modelliert, die auf realen Schnitt- Kleidersimulation in drei Komponenten beschrieben:
musterdaten basiert, und es sind effiziente numeri- · Die automatische Vorpositionierung, die einen guten Aus-
sche Verfahren zur Behandlung der auftretenden gangszustand der einzelnen Schnittteile für die Simulation
Differentialgleichungen zu entwickeln. Schließlich liefert und die Nahtinformationen für das Vernähen der
sollen die Ergebnisse fotorealistisch dargestellt wer- Schnittteile zum Gesamtkleidungsstück generiert.
den (Abb.1). Das Ziel des BMBF-Projekts „Virtual · Die physikalische Faltenwurfberechnung am virtuellen
Try-On – Von der virtuellen Anprobe zum Maß- Menschmodell. Hier werden die Schnittteile am Avatar ver-
schnitt“ ist es, die Probleme der virtuellen Anprobe näht und der Faltenwurf mit realen Materialparametern
in einer Boutique oder im Internet und der kosten- berechnet.
· Schließlich die realistische und interaktive Visualisierung
des Stoffes mit realen Reflexionseigenschaften unter natür-
lichen Beleuchtungsbedingungen.

Abbildung 9 zeigt die einzelnen Abschnitte der Ver-


arbeitungskette.

Vorpositionierung
Am Anfang der Produktionskette eines Kleidungs-
stücks in der Bekleidungsindustrie steht ein hoch-
DOI 10.1007/s00287-004-0442-5
© Springer-Verlag 2004

V. Luckas · C. Groß · A. Fuhrmann


FHG-IGD Darmstadt,
M. Sattler · R. Sarlette · R. Klein
Abteilung für Computergrafik,
Universität Bonn,
M.Wacker · M. Keckeisen · S. Kimmerle · W. Straßer
WSI/GRIS,
Universität Tübingen,
Abb. 1 Simulierte Kleidung mit ausgemessenen 72076 Tübingen
Reflexionseigenschaften unter natürlicher Beleuchtung E-Mail: mwacker@gris.uni-tuebingen.de

504 Informatik_Spektrum_13_Dezember_2004
spezialisiertes CAD-System [1,19]. Darin wird jedes
Kleidungsstück durch mehrere zweidimensionale
Schnittteilgeometrien beschrieben. Zusätzlich wer-
den Informationen bereitgestellt, wie die Schnitt-
teile miteinander zu vernähen sind. Will man mit
diesen Daten einen virtuellen Menschen (kurz
Avatar) bekleiden, so müssen die Schnittteile mit-
einander vernäht werden. Eine naive Vorgehens-
weise wäre die Simulation des realen Bekleidungs-
vorgangs nach dem Vernähen der Schnittteile. Abb. 2 Virtual-Try-On-Prozesskette. Basierend auf den
Dieser Ansatz ist jedoch viel zu aufwändig, wenn Schnittteilen ( links) wird die Vorpositionierung ( rechts)
man beispielsweise an das Hineinschlüpfen in einen durchgeführt und danach die Simulationskette gestartet
Pullover denkt. Bedeutend einfacher durchführbar
sind die Techniken, welche bei Volino u. Magnenat-
Thalmann [29,30] vorgeschlagen wurden. Dort wer- Mit Hilfe unseres Ansatzes können mehrere Klei-
den die virtuellen Schnittteile zunächst interaktiv dungsstücke gleichzeitig und vollkommen automa-
um den Avatar positioniert, um sie anschließend tisch vorpositioniert werden. Dazu wird eine Serie
am Körper zu vernähen. Diese Vorgehensweise fin- von übereinander liegenden Hüllflächen, auf denen
det ihre Anwendung zum Beispiel in der Filmin- die Schnittteile der verschiedenen Kleidungsstücke
dustrie [28]. positioniert werden, berechnet. Dabei trägt jede
In zeitkritischen Anwendungen, wie beispiels- neue Hüllfläche den bereits vorpositionierten
weise einer vir-tuellen Boutique, wo der Kunde vor Schnittteilen Rechnung, indem sie diese mit um-
einem virtuellen Spiegel das Passverhalten der schließt. Die vorpositionierten Schnittteile liegen
Kleidungsstücke an seinem digitalen Ebenbild be- sehr kompakt am
trachten will, muss dieser Vorgang automatisiert Körper, wobei in den meisten Fällen Kollisionen
ablaufen. Aus diesem Grund werden in einem neu- vermieden werden können. Mit dieser Vorgehens-
en Ansatz [9,12] die Schnittteile automatisch auf weise ist es leicht möglich, eine so genannte Beklei-
abwickelbaren Hüllflächen, wie Zylinder oder Ke- dungsreihenfolge zu bestimmen bzw. eine vorgege-
gel, um die einzelnen Körpersegmente des Avatars bene zu ändern. Beispielsweise lässt sich einfach
positioniert (Abb. 2). Da die Positionen der vorpo- durch Ändern der Reihenfolge beim Auswählen der
sitionierten Schnittteile als Anfangswerte für die Kleidungsstücke festlegen, ob man sein Hemd in
anschließende physikalisch basierte Simulation die- der Hose oder darüber tragen will.
nen, muss darauf geachtet werden, dass die vorposi-
tionierten Schnittteile möglichst unverzerrt um den Faltenwurfsimulation
Avatar liegen. Eine hohe Ausgangsdehnung der An die automatische Vorpositionierung der
Schnittteile würde zu falschen Endergebnissen oder Schnittteile schließt sich die physikalische Falten-
sogar zu Divergenzen in der physikalisch basierten wurfsimulation der Bekleidung an. Hier wird unter
Simulation führen. Die Abwickelbarkeit der Hüllflä- Berücksichtigung der Materialeigenschaften der
chen garantiert hierbei, dass die Schnittteile nicht Textilien deren dynamisches Verhalten simuliert,
gedehnt werden. Des Weiteren werden Kollisionen um eine Visualisierung am Avatar zu ermöglichen
zwischen dem Körper und den Schnittteilen bzw. und Informationen über die Passgenauigkeit für
zwischen den einzelnen Schnittteilen vermieden. den digitalisierten Kunden zu erhalten.
Zwar sind in den letzten Jahren Techniken [4,2,23] Das entwickelte Modell zur physikalischen
vorgestellt worden, die in der Lage sind, solche Textilsimulation basiert auf einer Diskretisierung
Durchdringungen aufzulösen, jedoch garantieren der kontinuierlichen Elastizitätsgleichungen durch
kollisionsfreie Ausgangspositionen wesentlich kür- Finite Elemente [7]. Hierbei wird das viskoelasti-
zere Berechnungszeiten. Zusätzlich sollten zwei sche Verhalten mit Hilfe einer linearen Verzerrungs-
korrespondierende Nahtkurven möglichst nahe formulierung approximiert, um eine effiziente
beieinander liegen, um die zu simulierenden Wege Zeitintegration zu ermöglichen. Allerdings ist hier-
beim Zusammenziehen der Nähte zu verkürzen. bei zu beachten, dass eine lineare Beschreibung der

Informatik_Spektrum_13_Dezember_2004 505
} VIRTUAL TRY-ON

Verzerrung nur für kleine Verschiebungen benutzt wendet (Abb. 3). Zur Kollisionsdetektion werden
werden kann. Dies kann für Textilien nicht ange- die Hierarchien der Kollisionsobjekte traversiert
nommen werden, da sie bezüglich Biegung gegen- und gegenseitig auf Kollision getestet. Kollidieren
über Zug und Scherung einen sehr geringen Wider- die Hüllkörper zweier Elternknoten nicht, so kann
stand besitzen und damit hohe Deformationen die weitere Traversierung der darunter liegenden
auftreten können. Diese Einschränkung wird in Knoten abgebrochen werden. Anderenfalls wird auf
dem hier verwendeten Modell dadurch behoben, Blattebene ein Kollisionstest der entsprechenden
dass ein mitrotierender lokaler Referenzrahmen Facetten durchgeführt, wobei die Abstände von
für jedes finite Element konstruiert wird, bezüglich Kanten-Kanten, sowie Vertex-Dreiecks-Paaren be-
dem die Berechnungen der inneren Kräfte erfolgen. stimmt werden. Da sich bei animierten Objekten
Die Zeitintegration schließlich erfolgt durch ein die Positionen der Vertices in jedem Zeitschritt
implizites Euler-Verfahren, wobei in jedem Zeit- ändern, ist auch ein Neuaufbau der Hüllkörper not-
schritt ein dünn besetztes lineares Gleichungssys- wendig. Effektiv ist es, die Hierarchie von unten
tem zu lösen ist. Hierzu wird das Verfahren der nach oben („bottom-up“) zu traversieren und da-
konjugierten Gradienten eingesetzt. Für sehr detail- bei zu aktualisieren. Zusätzlich wird die zeitliche
lierte geometrische Modelle von Textilien lässt Kohärenz zwischen mehreren Zeitschritten ausge-
sich die implizite Integration zudem effizient paral- nutzt, um diesen Aktualisierungsvorgang nicht in
lelisieren [15]. jedem Zeitschritt für alle Teile der Hierarchie
Mit dem beschriebenen Verfahren lassen sich durchführen zu müssen [23].
gemessene Materialparameter wie Zugkräfte in
Kett- und Schussrichtung, Scherkräfte, Biegekräfte
in Kett- und Schussrichtung und Querkontraktion
modellieren. Aus den im Kawabata-Messsystem
[14] ermittelten Hysteresekurven werden dazu die
entsprechenden viskoelastischen Parameter zur
Beschreibung der Stoffdeformationen extrahiert.
Externe Kräfte wie Luftwiderstand und Effekte von
Windströmungen lassen sich ebenfalls in das
Modell integrieren [16] und tragen zu einer realisti-
schen Simulation und einem realistischen Falten-
wurf bei.
Da die dynamische Elastizitätsgleichung gelöst
wird, können im Simulator auch bewegte Szenen Abb. 3 Verschiedene Stufen der verwendeten k -DOP-
verarbeitet werden. So ist es z. B. möglich, falls der Hierarchie am Beispiel des verwendeten Avatars
Avatar mit Bewegungsdaten animiert wurde, die
Kleidung auf dem bewegten Avatar zu simulieren.
Der Kunde kann dadurch besser den Fall des Stoffs Nachdem alle kollidierenden Primitiva der
und die Passform der ausgewählten Kleidung beur- Objekte detektiert wurden, dient die Kollisionsant-
teilen. wort dazu, wieder einen gültigen, also kollisions-
Eine der großen Herausforderungen eines freien Zustand herzustellen. In dem vorgestellten
Simulationssystems ist es sicherzustellen, dass der Simulator geschieht dies durch zwei unterschied-
simulierte Stoff nicht den Avatar durchdringt oder liche Verfahren. Zum einen kann die Bewegung ein-
es zu Selbstdurchdringungen des Stoffs kommt. zelner Vertices in bestimmte Richtungen durch
Dafür werden leistungsfähige Kollisionsdetektions- Zwangsbedingungen eingeschränkt werden, was
und Kollisionsantwortverfahren eingesetzt [27]. direkt im Differentialgleichungslöser geschieht.
Um die intrinsische quadratische Komplexität der Dadurch kann ein weiteres Eindringen der Objekte
Kollisionsdetektion (jedes Dreieck des Stoffes kann ineinander verhindert werden. Bereits eingedrun-
theoretisch mit jedem Dreieck der Szene kollidie- gene Vertices werden wieder an die Oberfläche des
ren) zu beschleunigen, wird eine Hierarchie von entsprechenden Objekts gesetzt. Andererseits wer-
speziellen Hüllkörpern, so genannte k -DOPS, ver- den zur Behandlung von Selbstkollisionen absto-

506 Informatik_Spektrum_13_Dezember_2004
Abb. 4 Virtual-Try-On-Prozesskette. Verschiedene Schritte der
Simulation

ßende Kraftpotentiale eingesetzt, die die Kollisions-


partner wieder voneinander entfernen.
Die Ausgabe des Simulators besteht aus Klei-
dungsstücken in Form von dreidimensionalen Abb. 5 Bild des Messlabors. In der Mitte der Messroboter,
Netzen mit entsprechenden Texturkoordinaten, der die Probe hält. Im Hintergrund ist die Lampe zu erkennen.
Um den Roboter herum ist ein Schienensystem mit CCD-
welche die Grundlage der fotorealistischen Visuali-
Kamera auf einem Laufwagen installiert. Das untere Bild
sierung bilden (Abb. 4). Eine ausführliche Beschrei- illustriert den Messaufbaus an Hand eines Schemas
bung der Simulationskomponente mit weiteren
Referenzen auf Einzelaspekte bei der Berechnung
des Faltenwurfs von Kleidungsstücken finden sich flächen der verwendeten Kleidungsmaterialien ge-
bei Kimmerle sowie Meseth et al. [18,31]. legt, so dass der Kunde durch bloßes Anschauen
Damit die Kleidersimulation auch im Internet ein Gefühl für das Material bekommt (Look & Feel).
verfügbar ist, wurde ein eigenständiger Simulator Zudem ist für ein realistisches Aussehen das Ein-
in Java entwickelt [8]. Die Eingabedaten bestehen beziehen möglichst natürlicher Beleuchtungssitua-
ebenfalls aus dem Avatar und den vorpositionierten tionen, wie z. B. im Verkaufsraum oder bei natür-
Kleidungsstücken. Damit der Faltenwurf in Echtzeit licher Sonneneinstrahlung, notwendig.
berechnet werden kann, wurde ein spezielles Simu- Für die Erfassung der optischen Eigenschaften
lationsmodell entworfen, welches nicht alle Material- der Materialien wurde ein Labor aufgebaut (Abb. 5),
eigenschaften, sondern nur die für eine Visualisie- in dem mit Hilfe einer CCD-Kamera und eines
rung wichtigsten, berücksichtigt. Die Kollisionser- Roboters High-Dynamic-Range (HDR [6]) Messun-
kennung zwischen der Kleidung und dem Avatar gen aus unterschiedlichen Richtungen durchgeführt
erfolgt hier mit Hilfe von Distanzfeldern [10]. werden. Man erhält vollständig automatisiert bidi-
Die vorgestellten Simulationskomponenten rektionale Texturfunktionen (BTF, [5,26]) verschie-
lassen sich außerdem dazu benutzen, um den dener Materialien, die das Aussehen einer planaren
Textildesign- und Schneiderprozess zu unterstüt- Materialprobe unter verschiedenen Blick- und
zen. So ist die Simulationskomponente in eine Beleuchtungsrichtungen beschreibt (Abb. 6) und
Virtual-Reality-Umgebung eingebunden, in der ein- die Mesostruktur der Oberfläche miterfasst. Dabei
zelne Schnittteile geschneidert werden können sind in der Aufnahme automatisch Selbstbeschat-
und das entstehende Kleidungsstück am Avatar tungs- und -verdeckungseffekte, Farbverschiebun-
anprobiert werden kann [17,32]. gen und Lichtstreuung an der Oberfläche enthalten.
Das Messen dieser Phänomene ist entscheidend
Fotorealistische Kleidungsvisualisierung für eine überzeugende fotorealistische Reproduk-
Am Ende der Simulationskette steht die fotorealisti- tion. Die Rippenstruktur des Kordes zum Beispiel
sche dreidimensionale Darstellung der Kleidungs- und die resultierende Helligkeit sind extremen
stücke des virtuellen Kunden. Besonderes Augen- Schwankungen unterworfen. Abbildung 10 zeigt den
merk wird dabei auf die Simulation der korrekten Vergleich zwischen mit BTF-Daten und normaler
physikalischen Reflexionseigenschaften der Ober- Frontaltextur texturierter Geometrie, die beide mit

Informatik_Spektrum_13_Dezember_2004 507
} VIRTUAL TRY-ON

Abb. 6 Ansichten der Kordprobe aus unterschiedlichen


Beleuchtungsrichtungen und Blickwinkeln. Links: frontale
Beleuchtung, frontale Betrachtung; Mitte: seitliche Beleuch- Abb. 7 Aufnahmen der Beleuchtungssituation am Eingang
tung, frontale Betrachtung; Rechts: flacher Betrachtungs- der Universität Bonn mit verschiedenen Belichtungszeiten
winkel

der gleichen Beleuchtung gerendert wurden. In


den Ausschnittsvergrößerungen sind die qualitati-
ven Unterschiede und die BTF-Effekte deutlich
zu erkennen. Die Messungen finden unter HMI-Be-
leuchtung statt, die im sichtbaren Bereich einen
dem Sonnenlicht ähnlichen Spektralverlauf auf-
weist. Pro Material werden zurzeit jeweils für Blick
und Beleuchtung 81 Hauptrichtungen verwendet.
Daraus resultieren pro Material 6561 Bilder, die nur Abb. 8 Aufgeschnittene, würfelförmige Environment Map zur
in einer Auflösung von etwa 800×800 Pixeln be- Reproduktion der Beleuchtungssituation
nutzt werden können, da durch die perspektivische
Aufnahme und den Probenhalter der effektiv nutz-
bare Ausschnitt des Rohbildes von 14 Megapixeln dung, insbesondere vom Faltenwurf, ist die Simula-
verringert wird. Aus diesen Bildern werden später tion von Schatten und Selbstbeschattungseffekten
Texturen in einer Auflösung von bis zu 512×512 Pixeln besonders wichtig. Im Gegensatz zu Verfahren mit
für das Rendern erzeugt. Das Datenvolumen be- einer endlichen Anzahl von diskreten Lichtquellen
trägt etwa 1.2 Gigabyte pro Material. Einige Beispie- wurde ein Verfahren [11] entwickelt, welches die
le der BTF-Datensätze sind für Forschungszwecke oben erwähnten Environment Maps auswertet [26]
frei im Internet [3] verfügbar. und dazu vorberechnete Sichtbarkeitsinformatio-
Parallel dazu sind Verfahren entwickelt und nen verwendet. Diese erlauben das Handling des
implementiert worden, die es erlauben, die gewon- Schattenwurfes sowohl von Objekten auf andere
nenen Daten zu komprimieren und platzsparend Objekte, als auch Selbstbeschattungseffekte von
zu verwalten und am Schluss mit Grafikhardware- Objekten auf sich selbst. Zur Visualisierung werden
unterstützung zu visualisieren. Hierbei werden zu jedem Zeitpunkt die Kamerawinkel auf jeden
bestehende Bildkompressionsverfahren ebenso ver- Punkt der Kleidung evaluiert und der Einfluss der
wendet, wie statistische Ansätze, z. B. aus der Haupt- Umgebungsbeleuchtung (repräsentiert durch eine
komponentenanalyse, um die Datenmenge auch Environment Map) auf das Objekt ausgewertet.
auf Consumer PCs zu verwalten und dort den Algo- Durch eine weitere Analyse ist ein interaktiver
rithmus nutzbar zu machen [24,25,26,13]. Wechsel der Kameraposition und der Beleuchtungs-
Um die Beleuchtungssituation an einem belie- situation möglich [26,25].
bigen Ort festzustellen, wird mit verschiedenen Diese Verfahren geben letztendlich dem Kun-
Belichtungszeiten eine verchromte Messingkugel den im Geschäft mittels eines Virtual Mirrors, auf
fotografiert, die das Umgebungslicht reflektiert und dem die Ergebnisse der Prozesskette dargestellt
eine HDR-Aufnahme erzeugt. Die einzelnen Auf- werden, eine genaue Vorstellung davon, wie die aus-
nahmen, projiziert auf einen aufgefalteten Würfel gewählte Kleidung am Körper aussehen würde.
(Environment Maps, Abb. 7) repräsentieren die Die vorgestellten Methoden erlauben die inter-
Daten, die dann zur Beleuchtung der Szene im Com- aktive Texturierung beliebiger polygonaler 3D-Geo-
puter eingesetzt werden und gibt die hohen dyna- metrien mit BTF-Daten und lassen sich neben der
mischen Unterschiede bei Beleuchtungssituationen hochqualitativen Kleidungsvisualisierung auch in
(z. B. sehr helle Sonne, im Schatten liegende Tür) anderen Bereichen wie z. B. in der Automobilindu-
wieder. Für eine realistische Darstellung von Klei- strie einsetzen[21,22,20].

508 Informatik_Spektrum_13_Dezember_2004
Abb. 9 Virtual-Try-On-Prozesskette. Basierend auf den Schnittteilen ( links oben) wird die Vorpositionierung
(rechts oben) durchgeführt und danach die Simulationskette gestartet ( untere Reihe mit mehreren Simulationsschritten)

Informatik_Spektrum_13_Dezember_2004 509
} VIRTUAL TRY-ON

Abb. 9 Demonstration der BTF-Eigenschaften verschiedener Materialien unter natürlicher Beleuchtung mit hoher Dynamik (HDR).
Links jeweils BTF-Rendering, rechts normale Texturierung mit herkömmlich aufgenommener Frontaltextur. Die Mesostruktur und
das charakteristische Reflexionsverhalten fehlen vollständig, das Look & Feel geht verloren, was insbesondere in den Ausschnitts-
vergrößerungen zu sehen ist. In den unteren beiden Reihen wurden HDR-Aufnahmen aus [6] verwendet

510 Informatik_Spektrum_13_Dezember_2004
Zusammenfassung 12. Gross, C.; Fuhrmann, A.; Luckas,V.: Automatic pre-positioning of virtual clothing.
In: Proceedings of the Spring Conference on Computer Graphics, pp. 113–122,
Durch die beschriebenen Verfahren und die Ver- April 2003.
wendung realer Eingabedaten, von CAD-Schnitttei- 13. Hauth, M.; Etzmuss, O.; Eberhardt, B.; Klein, R.; Sarlette, R.; Sattler, M.; Daubert, K.;
Kautz, J.: Cloth animation and rendering, September 2002. Eurographics Tutorial.
len über physikalische Materialparameter bis hin 14. Kawabata, S.:The standardization and analysis of hand evaluation.The Textile
zu gemessenen BTFs, gelingt eine realistische Dar- Machinery Society of Japan, Osaka, 1980.
15. Keckeisen, M.; Blochinger,W.: Parallel implicit integration for cloth animations on
stellung von Textilien. Die im Virtual-Try-On distributed memory architectures. In: Eurographics Symposium on Parallel Graphics
Projekt entwickelten Techniken sollen es in naher and Visualization, 2004.
16. Keckeisen, M.; Kimmerle, S.;Thomaszewski, B.; Wacker, M.: Modelling effects of wind
Zukunft ermöglichen, Maßkonfektion „on demand“ fields in cloth animations. Journal of WSCG, 12(2):205–212, February 2004.
herzustellen, die dem jeweiligen Kunden exakt 17. Keckeisen, M.; Stoev, S.L.; Feurer, M.; Straßer,W.: Interactive cloth simulation in virtual
environments. In: Proc. IEEE Virtual Reality, 2003.
passt (Abb. 9, 10). 18. Kimmerle, S.; Keckeisen, M.; Mezger, J.; Wacker, M.:TüTex: A cloth modelling system
for virtual humans. In: Proc. 3D Modelling, 2003.
Danksagung 19. Lectra. http://www.lectra.com/
20. Meseth, J.; Müller, G.; Klein, R.: Preserving realism in real-time rendering of bidirectio-
Das Projekt Virtual Try-On wird vom bmb+f nal texture functions. In: OpenSG Symposium 2003, pp. 89–96. Eurographics Associa-
gefördert. Wir danken allen Projektpartnern für tion, Switzerland, April 2003.
21. Meseth, J.; Müller, G.; Klein, R.: Reflectance field based real-time, high-quality
die Bereitstellung der Ausgangsdaten. Nähere rendering of bidirectional texture functions. Computers and Graphics, 28(1):103–112,
Informationen zu dem Projekt finden sich unter February 2004.
22. Meseth, J.; Müller, G.; Sattler, M.; Klein, R.: BTF rendering for virtual environments.
http://www.virtualtryon.de. In:Virtual Concepts 2003, pp. 356–363, November 2003.
23. Mezger, J.; Kimmerle, S.; Etzmuß, O.: Hierarchical techniques in collision detection
for cloth animation. Journal of WSCG, 11(2):322–329, 2003.
Literatur 24. Müller, G.; Meseth, J.; Klein, R.: Compression and real-time rendering of measured
1. assyst – Gesellschaft für Automatisierung, Software und Systeme mbH. BTFs using local PCA. In: Ertl,T.; Girod, B.; Greiner, G.; Niemann, H.; Seidel, H.-P.;
http://www.assyst-intl.com/ Steinbach, E.; Westermann, R. (eds):Vision, modeling and visualisation 2003,
2. Baraff, D.; Witkin, A.; Kass, M.: Untangling cloth. ACM Transactions on Graphics pp. 271–280. Akademische Verlagsgesellschaft Aka GmbH, Berlin, November 2003.
(Proceedings of ACM SIGGRAPH 2003), 22(3):862–870, 2003. 25. Müller, G.; Meseth, J.; Klein, R.: Fast environmental lighting for local-PCA encoded
3. BTF-Database Bonn. http://btf.cs.uni-bonn.de BTFs.To appear in proceedings of Computer Graphics International 2004 (CGI2004),
4. Bridson, R.; Fedkiw, R.P.; Anderson, J.: Robust treatment of collisions, contact, June 2004.
and friction for cloth animation. In: Proceedings of the Conference on Computer 26. Sattler, M.; Sarlette, R.; Klein, R.: Efficient and realistic vsualization of cloth.
Graphics (Siggraph2002), pp. 99–104, NY, July 21–25 2002. ACM Press. In: Eurographics Symposium on Rendering 2003, June 2003.
5. Dana, K.J.; Ginneken, B. van; Nayar, S.K.; Koenderink, J.J.: Reflectance and texture 27. Teschner, M.; Kimmerle, S.; Heidelberger, B.; Zachmann, G.; Raghupathi, L.;
of real-world surfaces. ACM Transactions on Graphics, 1999. Fuhrmann, A.; Cani, M.-P.; Faure, F.; Magnenat-Thalmann, N.; Strasser,W.; Volino, P.:
6. Debevec, P.: Rendering synthetic objects into real scenes: Bridging traditional and Collision detection for deformable objects, 2004. State of the Art Report, Eurographics.
image-based graphics with global illumination and high dynamic range photo- 28. Visual Effects Society. From ivory tower to silver screen. SIGGRAPH 2001 Course
graphy. In: Cohen, M. (ed): SIGGRAPH 98 Conference Proceedings, Annual Conference Notes, 36, 2001.
Series, pp. 189–198. ACM SIGGRAPH, Addison Wesley, July 1998. 29. Volino, P.; Magnenat-Thalmann, N.: Developing simulation techniques for an interac-
7. Etzmuß, O.; Keckeisen, M.; Straßer,W.: A fast finite element solution for cloth model- tive clothing system. In: Proceedings of Virtual Systems and MultiMedia ‚97,
ling. Proc. Pacific Graphics, 2003. pp. 109–118, 1997.
8. Fuhrmann, A.; Gross, C.; Luckas,V.: Interactive animation of cloth including self colli- 30. Volino, P.; Magnenat-Thalmann, N.:Virtual clothing, theory and practice. Berlin
sion detection. Journal of WSCG, 11(1):141–148, February 2003. Heidelberg New York Tokio: Springer 2000
9. Fuhrmann, A.; Gross, C.; Luckas,V.; Weber, A.: Interaction-free dressing of virtual 31. Wacker, M.; Keckeisen, M.; Kimmerle, S.; Mezger, J.: Fortschritte in der Textilsimulation
humans. Computer & Graphics, 27(1):71–82, January 2003. für Fashion on Demand. In:Tagungsband 1. Paderborner Workshop Augmented
10. Fuhrmann, A.; Sobotka, G.; Gross, C.: Distance fields for rapid collision detection Reality Virtual Reality in der Produktentstehung, 2002.
in physically based modeling. In: Proceedings of GraphiCon 2003, pp. 58–65, 32. Wacker, M.; Keckeisen, M.; Stoev, S.L.; Straßer,W.: A comparative study on user perfor-
September 2003. mance in the virtual dressmaker application. In Proc. ACM VRST, 2003.
11. Ganster, B.; Klein, R.; Sattler, M.; Sarlette, R.: Realtime shading of folded surfaces.
In:Vince, J.; Earnshaw, R. (eds): Advances in modelling, animation and rendering.
pp. 465–480. Berlin Heidelberg New York Tokio: Springer 2002

Informatik_Spektrum_13_Dezember_2004 511

View publication stats

Das könnte Ihnen auch gefallen