Sie sind auf Seite 1von 16

Allgemeine Grundbegriffe

1. Was sind Spielobjekte (GameObjects) in Unity?


Das Grundlegende Element im Unity. Ein GameObject repräsen�ert in
deiner Szene, wie Charaktere, Kameras, Lichter, oder sogar unsichtbare
Steuerungselemente. Sie können visuelle Komponenten, Skripte und andere
Daten enthalten
2. Was sind Komponenten (Components) in Unity?
Spielobjekte bestehen aus Komponenten, die ihr Verhalten, ihre Darstellung
und ihre Funk�onen definieren. Beispiele sind Transform (Posi�onierung im
Raum), Mesh Renderer (darstellt, wie ein Objekt aussieht), Collider
(Kollisionserkennung), Skripte (programmierte Logik) und viele andere.
3. Was ist eine Szene (Scene) in Unity?
Ein Level oder eine Spielumgebung in Unity wird als Szene bezeichnet.
Szenen enthalten eine Sammlung von GameObjects, die
zusammenarbeiten, um eine bes�mmte Spielsitua�on zu erzeugen.
4. Was ist ein Prefab in Unity?
Ein vorgefer�gtes GameObject, das in der Hierarchie wiederverwendet
werden kann. Prefabs ermöglichen die einfache Instanziierung mehrerer
iden�scher Objekte.
5. Was sind Skripte (Scripts) in Unity?
Programme, die Logik und Funk�onalität zu GameObjects hinzufügen. Sie
sind in C#, JavaScript oder Boo geschrieben und steuern das Verhalten von
Spielobjekten, z.B. Bewegung, Kollisionen, Sound usw.
6. Was ist eine Kamera (Camera) in Unity?
Ein GameObject, das die Sicht des Spielers im Spiel steuert. Die Kamera
bes�mmt, was auf dem Bildschirm angezeigt wird
7. Was ist eine Physik-Engine in Unity?
Unity verwendet eine eingebaute Physik-Engine, die die physikalischen
Eigenscha�en von Objekten im Spiel simuliert. Dazu gehören Bewegung,
Kollisionen, Schwerkra� und mehr.
8. Was sind Materialien (Materials) in Unity?
Definieren das Aussehen von GameObjects. Materialien enthalten Texturen,
Farben und Einstellungen für die Oberfläche von Objekten.
9. Was ist das User Interface (UI) in Unity?
Unity bietet Werkzeuge zur Erstellung von Benutzeroberflächen für Spiele,
wie Butons, Tex�elder, Menüs usw
10. Was ist ein Mesh-Filter in Unity?
Der Mesh-Filter ist eine Komponente, die einem GameObject ermöglicht,
ein 3D-Modell anzuzeigen. Er enthält Informa�onen über das tatsächliche
geometrische Modell des Objekts, wie die Eckpunkte (Ver�ces), Kanten und
Flächen. Der Mesh-Filter selbst ist nicht für die visuelle Darstellung
verantwortlich, sondern speichert nur die geometrischen Daten des Objekt
11. Was ist ein Mesh-Renderer in Unity?
Der Mesh-Renderer ist die Komponente, die für die visuelle Darstellung des
Meshes, das vom Mesh-Filter definiert wird, verantwortlich ist. Er rendert
das 3D-Modell auf dem Bildschirm und behandelt Aspekte wie Materialien,
Texturen, Beleuchtung und Scha�erung. Der Renderer liest die
geometrischen Daten des Mesh-Filters und zeichnet sie mithilfe der
Materialien und anderer visueller Eigenscha�en auf den Bildschirm.
12.Was ist ein Rigidbody in Unity?
Ein Rigidbody ist eine Komponente in Unity, die einem GameObject
physikalische Eigenscha�en verleiht. Sie ermöglicht die Simula�on von
physikalischen Krä�en wie Schwerkra�, Impulse und Kollisionen. Objekte
mit Rigidbody reagieren auf physikalische Gesetze und Bewegungen in der
Spielwelt
13. Was ist eine Kollision (Collision) in Unity?

Kollisionen treten auf, wenn zwei Collider von GameObjects sich berühren.
In Unity ermöglicht die Kollisions-Detektion die Interaktion zwischen
verschiedenen Objekten, indem sie feststellt, wann und wie GameObjects
miteinander in Kontakt kommen. Dies wird oft verwendet, um Reaktionen
oder Ereignisse auszulösen, wenn Kollisionen auftreten.

14. Was ist ein Collider in Unity?


Collider: Ein Collider ist eine Komponente, die die Form eines GameObjects
für Kollisionsberechnungen definiert. Collider werden verwendet, um
festzustellen, wann Objekte miteinander kollidieren oder sich berühren. Sie
definieren die Oberfläche oder den Bereich eines Objekts, der für
Kollisionsberechnungen relevant ist.
15. Was ist Gravita�on (Gravity) in Unity?
Die Gravita�on ist eine physikalische Kra�, die Objekte mit Masse
aufeinander anzieht. In Unity ist die Schwerkra� standardmäßig ak�viert
und wirkt auf Objekte mit Rigidbody. Du kannst die Schwerkra� anpassen
oder Objekte von der Schwerkra� ausschließen, um das Verhalten von
Objekten in der Spielwelt zu steuern
16. Was sind Krä�e (Forces) in Unity?
Krä�e sind Einflüsse, die auf ein Objekt wirken und seine Bewegung oder
Verhalten ändern können. In Unity kannst du Krä�e wie Schub, Schwerkra�,
Drehmoment und Impulse auf GameObjects anwenden, um deren
Bewegung und Verhalten zu steuern
17. Was ist Raycas�ng in Unity?
Raycas�ng ist eine Technik in Unity, bei der Strahlen oder Linien in eine
Richtung projiziert werden, um Interak�onen mit der Spielwelt zu
überprüfen. Es wird häufig verwendet, um Kollisionen zu erkennen, Objekte
zu treffen oder Informa�onen über Trefferpunkte zu sammeln, indem es die
Szene nach bes�mmten Kriterien untersucht und analysiert.
18. Was ist ein Trigger (Auslöser) in Unity?
In Unity bezieht sich ein Trigger auf eine spezielle Eigenscha� von Collider-
Komponenten, die es ermöglicht, Ereignisse auszulösen, wenn andere
GameObjects in sie hineinbewegen. Trigger werden als "Is Trigger" markiert,
was bewirkt, dass sie keine physischen Kollisionen verursachen, sondern
statdessen als Auslöser für bes�mmte Ereignisse fungieren. Sie lösen
OnTriggerEnter, OnTriggerStay und OnTriggerExit-Ereignisse au
19. Was ist die Nvidia PhysX-Engine?
Die Nvidia PhysX-Engine ist eine so�warebasierte Technologie, die in
Computerspielen und Simula�onen verwendet wird, um realis�sche
physikalische Effekte zu erzeugen. Sie ermöglicht die Berechnung und
Darstellung von Bewegungen, Kollisionen, Gravita�on und anderen
physikalischen Interak�onen in 3D-Umgebungen
20. Was ist eine Transform-Komponente in Unity?
Jedes Objekt in einer Szene verfügt über einen Transform. Dieser wird
genutzt, um die Posi�on, Rota�on und Skalierung des Objekts zu speichern
und zu manipulieren. Jeder Transform kann einen Parent haben, was es
ermöglicht, Posi�on, Rota�on und Skalierung hierarchisch anzuwenden.
Diese Hierarchie wird in der Hierarchie-Ansicht dargestellt
21. Was ist ein Frame im Kontext von Videospielen und Computergrafik?
Ein "Frame" in der Kontext von Videospielen und Computergrafik bezieht
sich auf ein einzelnes Bild oder eine Einzelbildsequenz, die auf dem
Bildschirm angezeigt wird.
Fragen zum Skript Teil 1
1. Was ist Unity und welche Hauptanwendungen hat es?
Es ist ein Spielengine für die Entwicklung von IOS und Android Mobilspielen und
VR-Bereich Spielentwicklung, Autoindustrie etc.
2. Welche Branchen außerhalb der Spieleindustrie nutzen Unity und warum?
Es ist eine vielsei�ge Engine, die sich gut für die Erstellung von 2D und 3D
Anwendungen geeignet ist. Die Branchen, die es nutzen sind Bildung, Immobilien,
Medizin, Armee usw.
3. Was ist eine Game-Engine?
Es übernimmt die Aufgaben, viele verschiedenen Komponenten zu verbinden. Es
macht viele Entwicklungen erst möglich.
4. Wo findet in Österreich gerade die meiste Innova�on mit Unity stat?
Spielentwicklung, Bildung und Forschung, Architektur und Immobilien,
Medizinische S�mula�on
5. Welche anderen Game-Engines gibt es?
Unreal Engine, Cry Engine etc.
6. Was sind die Hauptkomponenten des Unity-Interface.
Szeneansicht, symbolleiste, Hierarchiefenster, Spielansicht, Overlays,
Projek�enster und Statusliste
7. Wie erstellt und manipuliert man GameObjects in Unity?
Mit der rechten Maustaste auf einen leeren Bereiche in der ausgewählten Szene
klicken (ctrl + shi� + n)
W – move, E – rotate, R – Scale, T – Transform
8. Was passiert, wenn man im Play-Mode von Unity GameObjekte verändert.
Die Änderungen werden nicht gespeichert.
9. Was befindet sich in der Hierarchieansicht?
Szenen, Game Objekt, Kind – Eltern Beziehungen, Symbole und Icons, Layer und
Tags, Veränderbare Eigenscha�en.
10. Was ist ein GameObject in Unity?
Das grundlegende Bauelement. Man kann hier alles, was man will, anhangen.
11. Wie erstellt man ein GameObject in Unity?
Man muss mit der rechten Maustaste auf einen leeren Bereich in der Szene klicken
und den GameObject auswählen
12. Was sind Child-GameObjects in Unity?
Eine untere GameObject von Parent-GameObject. Child GameObjects vererben
Eigenscha�en von ihren Eltern
13. Was bedeutet Paren�ng im Kontext von Unity? Wie verhalten sich
Kindobjekte zu ihren Parentobjekten?
Paren�ng ist wenn Child Objekte Eigenscha�en von Eltern erben
14. Was bedeutet der Begriff Transforma�on? Wie hängt dieser mit
Transla�on, Rota�on und Skalierung zusammen?
Eine Änderung der Form, Posi�on oder Orien�erung eines geometrischen Objekt.
Transla�on ist die Bewegung, Rota�on die Drehung und Skalierung.
15. Welche Komponenten benö�gt ein GameObjekt, damit es physikalisch
reagiert?
Rigitbody und Collider
16. Erkläre die Atribute: Mass, Drag, Angular Drag und Gravity, Is Kinema�c
eines Rigidbodys.
Mass – wie schwer ist das Objekt
Drag – beeinflusst der Lu�wiederstand
Angular Drag – Drehwiederstand
Gravity – wirkt die Gravität auf das Objekt oder nicht
Kinema�c – ignoriert die Krä�e
17. Erkläre die Atribute: is Trigger, Material eines Colliders. Wie hängt hier
Material mit Physik Material zusammen?
Is Trigger – macht der Collider als Ausloser fur Events, ohne Kollisionen zu
verursachen
Material – definiert physische und visuelle Eigenscha�en
18. Was ist das Frustum einer Kamera in Unity? Welche Komponenten hat das
Frustum?
Ein Bereich im Raum, der von der Kamera sichtbar ist
Komponente: Near Clipping Plane, Far Clipping Plane, Field fo View, Aspect Radius,
Viewing Volume
19. Was ist ein Physic-Material in Unity? Was bedeuten hier Sta�c Fric�on,
Dynamic Fric�on und Bounciness?
Es beeinflusst physkalische Eigenscha�en von Kollisionen zwischen GameObject
und Collider Komponente.
Sta�c Fric�on – Sta�sche Reibung
Dynamic Fric�on – Dynamische Reibung
Bounciness - Abprallfaktor
20. Wie funk�oniert die Serialisierung von Atributen in Unity?
Es wird verwendet um Werte im Inspector sichtbar und bearbeitbar zu machen.

Fragen zum Skript Teil 2


1. Wie wird die Bildwiederholfrequenz in Unity gemessen?
Die Bildwiederholfrequenz eines Spiels wird in Hertz (Hz) gemessen und
gibt an, wie viele Frames pro Sekunde (FPS) gerendert werden.
2. Was ist ein Frame in der Kontext von Videospielen und
Computergrafik?
Ein "Frame" in dem Kontext von Videospielen und Computergrafik
bezieht sich auf ein einzelnes Bild oder eine Einzelbildsequenz, die auf
dem Bildschirm angezeigt wird
3. Was ist die Bedeutung von 60 Hz in Bezug auf die
Bildwiederholfrequenz in Unity?
Zum Beispiel bedeutet eine Bildwiederholfrequenz von 60 Hz, dass das
Spiel 60 Frames pro Sekunde rendert.
4. Was ist der Zweck von Szenen in Unity?
Szenen enthalten eine Sammlung von Game Objects, die
zusammenarbeiten, um eine bes�mmte Spielsitua�on zu erzeugen.
5. Was ist der Unterschied zwischen einem Mesh-Filter und einem Mesh-
Renderer in Unity?
Der Mesh-Filter ist eine Komponente, die einem GameObject ermöglicht,
ein 3D-Modell anzuzeigen. Er enthält Informa�onen über das
tatsächliche geometrische Modell des Objekts, wie die Eckpunkte
(Ver�ces), Kanten und Flächen.
Der Mesh-Renderer ist die Komponente, die für die visuelle Darstellung
des Meshes, das vom Mesh-Filter definiert wird, verantwortlich ist. Er
rendert das 3D-Modell auf dem Bildschirm und behandelt Aspekte wie
Materialien, Texturen, Beleuchtung und Scha�erung.
6. Wie fügt man ein Skript einem GameObject in Unity hinzu?
Ein C#-Skript kann in Unity als Komponente an jedes GameObject
angehängt werden. Dazu erstellt man sich am besten einen Ordner
Scripts im Bereich Assets
7. Was ist die Start()-Funk�on in einem Unity-Skript und wann wird sie
aufgerufen?
Die Start-Funk�on wird aufgerufen, wenn das Skript ak�viert wird. Dies
geschieht einmal, wenn das GameObject, zu dem das Skript gehört, zum
ersten Mal erstellt oder ak�viert wird. Die Start-Funk�on wird
typischerweise für die anfängliche Konfigura�on und Ini�alisierung von
Variablen verwendet.
8. Was macht die Update()-Funk�on in einem Unity-Skript?
Die Update-Funk�on wird in jedem Frame aufgerufen, solange das Skript
ak�v ist. Hier wird der kon�nuierliche Code platziert, der in jedem Frame
ausgeführt werden soll.
9. Wie kann man die Posi�on eines GameObjects mitels Skript in Unity
ändern?
Mit Transla�on kann man die Posi�on eines GameObject ändern.
10. Wie kann man die Rota�on eines GameObjects mitels Skript in Unity
steuern?
Mit Transforma�on kann man die Rota�on ändern.
11. Erklären Sie, wie man die Skalierung eines GameObjects in Unity
mitels Skript ändert.
Man kann Vector3 verwenden,um die Skalierung zu ändern.
12. Was ist die Vector3-Klasse in Unity?
Vector3 ist ein sehr wich�ger Typ in Unity, der häufig verwendet wird,
um Posi�onen, Richtungen und Skalierungen im 3D-Raum darzustellen.
Ein Vector3-Objekt speichert drei Werte, die den Koordinaten in einem
dreidimensionalen Raum entsprechen.
13. Wofür verwendet man die Vector3-Klasse in Unity?
Es wird verwendet um der Posi�on, die Richtung und die Skalierung
eines GameObjects darzustellen
14. Welche vorgefer�gten Werte gibt es für die Vector3-Klasse?
X repräsen�ert die horizontale Achse. Die posi�ve X-Achse zeigt nach
links. • Y repräsen�ert die ver�kale Achse. Die posi�ve Y-Achse zeigt
nach oben. • Z repräsen�ert die Tiefe oder die Achse, die in den
Bildschirm hinein und aus ihm herausführt.
15. Wohin zeigt zum Beispiel der Vektor (0, -1, 0)
Es bewegt sich unter auf der Y-Achse.
16. Wie verhält sich folgender Code? Ist die Bewegung schön?

void Update()
{
transform.Translate(transform.right);
}
Nein, weil es muss, Vector3.right sein und es muss mit Time.deltaTime
mul�pliziert.
17. Was ist Time.deltaTime?
Time.deltaTime gibt die Zeit in Sekunden an, die seit dem letzten
gerenderten Frame vergangen ist.
18. Welchen Wert hat �me.deltaTime bei 50 fps? Wie kann man das
berechnen?
Bei einer Bildrate von 50 FPS würde Time.deltaTime etwa 0,02 Sekunden
(1 Sek / 50 Frames) betragen.
19. Was bedeutet Serialisierung in objektorien�erten
Programmiersprachen? Was bedeutet es in Unity?
Serialisierung ist der Prozess, bei dem Objekt-Datenstrukturen oder
Objektzustände in ein Format umgewandelt werden, das gespeichert,
übertragen und später rekonstruiert werden kann. In Unity ermöglicht
die Serialisierung, dass die Konfigura�onen von GameObjects und
Komponenten im Editor gespeichert und geladen werden können, wenn
das Spiel gestartet wird oder die Szene geladen wird.
20. Wie kann man im Unity-Interface auf C#-Atribute zugreifen?
Standardmäßig zeigt Unity nur öffentliche Felder (public) im Inspector an.
Wenn du ein privates Feld (private) hast, das du im Inspector bearbeiten
möchtest, ohne es öffentlich zu machen, kannst du [SerializeField]
verwenden. Achtung: [SerializeField] ist Unity-Spezifisch und nicht Teil
von C#.

Blender
1. Was ist Blender und wofür wird es verwendet?
Es ist ein Open-Source Software für 3D Modelling und animation.
2. Was ist ein Vertice/Vertex? Welche Informationen speichert er?
Ein Vertex ist wie ein Punkt und enthält 3 Koordinaten.
3. Was ist eine Edge?
Edges sind Kanten die 2 Vertexes verbinden
4. Was ist ein Face?
Flächen bestehen aus Dreiecken oder Polygonen.
5. Was bedeutet Mesh? Wie hängt das mit Vertice, Edge und Face
zusammen?
Mesh ist ein Netzwerk von miteinander verbundenem Punkte, Kanten und
Faces die zusammen ein 3D Modell bilden.
6. Was ist der Object- und der Edit-Mode in Blender. Wofür werden diese
verwendet? Was ist der Unterschied?
Ein Objekt kann ein Mesh,Kamera sein, dass im 3D Raum platziert wird.
In der Edit Mode kann man die Objekte transformieren also die Vertexes
ändern usw.
7. Was ist das Welt-Koordinatensystem und wofür wird es verwendet?
Das Weltkoordinaten system ist das Koordinatensystem für die ganze Szene.
Das ist statisch und unveränderbar für alle Objekte. Die Objekte sind relativ
zu diesem Weltkoordinatensystem positioniert
8. Was ist ein lokales Koordinatensystem und wofür wird es im Unterschied
zum Welt Koordinatensystem verwendet?
Das lokale Koordinatensystem dient nur für ein Objekt, also jedes Objekt
hat ein einzelnes lokales Koordinatensystem. Das macht das Objekt
unabhängig von den anderen Objekten. Es definiert, wie das Objekt im
Raum orientiert, und jedes Objekt hat ein Mittelpunkt.
9. Was ist ein rechtshändiges Koordinatensystem? Was ist ein linkshändiges
Koordinatensystem?
Diese Unterscheidung basiert auf der Richtung, in der die Achsen des
Koordinatensystems angeordnet ist. Die recht händische wird für die
positive Achse und es ist Uhrzeigersinn und die link händische wird für die
negative achse bezeichnet.
10.Was bedeutet Rendern?
Es ist ein Prozess, bei dem Blender eine 3D Szene in ein 2D Bild umwandelt.
11.Was ist eine Textur?
Ein Texturen ist eine Grafikdatei, die auf ein Objekt angewendet wird, um
dessen Aussehen zu verändern. Zb Holz.

12.Wie bewegt man sich in der 3D-Umgebung von Blender?


• Linksklick auf ein Objekt um es auszuwählen:
Rotate : Mit mittleren Maustaste ziehen
Bewegung der Kamera: Shift + Maustaste ziehen
Zoom : Mit dem Mausrad rein oder rauszoomen.
• Über das Sidebar-Menü
13.Wie fügt man Objekte in Blender ein und wie bewegt man sie?
Shift + a. Mit G kann man das Objekt bewegen
X,y,Z Achse.
14.Was ist der Viewport?
Der Bereich im Blender in dem man die 3D Szene sehen und bearbeiten
kann.
15.Was bedeuten folgende Optionen im Shading-Menu?: Wireframe, Solid,
Material Preview, Rendered
Wireframe: Zeigt nur die Drahtgitteransicht an, ohne Materialien oder
Texturen
Solid: Zeigt das Modell in einer einfarbigen Ansicht an, die auf der Beleuchtung
und Schatten basiert.
Material Preview: Zeigt das Modell in einer Ansicht an, die Materialen und
Texturen darstellt, aber ohne Komplexe Schatten und Beleuchtung
Rendered: Zeigt eine Vorschau des gerenderten Bild an, das du ausgeben wirst.

16.Was ist ein Material?


Eine Kombination von Eigenschaften wie Farbe, Transparenz und Texture, die
auf einem Objekt angewendet wird.
17.Wie kann man verschiedenen Formen in Blender verschiedene Materialien
geben?
Auf den Reiter „Material“ in der Properties klicken.
Klicken auf den Button add oder new um ein neues Material zu erstellen
Wähle die gewünschten Eigenschaften des Materials
Klicke auf „Assign“ oder ziehe das Material auf den 3D Modell
18.Was bedeuten die Attribute Roughness und Metallic? Wie funktionieren
diese?
Sie beschreiben die Oberflächeneigenschaften eines 3D Objekt.
Roughness -> definiert wie glatt oder rau die Oberfläche eines Materials ist.
Metallic -> steuert wie stark das Material metallisch reflektiert.

19.Was bedeutet Diffuse Reflexion? Wie funktioniert diese?


Wie eine Oberflächenmaterial das einfallende Licht reflektiert. Das Licht wird in
viele Richtungen reflektiert.
20.Welche Lichtquellen kennst du in Blender?
Point-Licht
Spotlicht
Area-Licht
Sun-Licht
Environment-Licht
21.Was ist ein Point-Light? Wie funktioniert es?
Eine Lichtquelle, die aus einem Punkt in alle Richtungen stahlt
22.Was ist ein Spotlight? Wie funktioniert es?
Eine gerichtete Lichtquelle, die einen engen Lichtstrahl erzeugt.
23.Was ist ein Area-Light? Wie funktioniert es?
Eine Lichtquelle, die eine bestimmte Fläche ausfüllt.
24.Was ist Sun-Light in Blender? Wie funktioniert es?
Eine Lichtquelle, die das Aussehen von natürlichem Sonnenlicht erzeugt.
25.Wie kann man die Lichtquelle in Blender bewegen, drehen oder skalieren?
Mit G kann man die Lichtquelle bewegen, mit S kann man es skalieren und
mit R kann man die Lichtquelle rotieren.
26.Was ist Environmental-Light in Blender? Wie funktioniert es?
Eine gleichmäßige Lichtquelle, die die Szene gleichmäßig ausleuchtet, ohne
Schatten zu erzeugen.
27.Wie funktioniert skalieren in Blender?
Es bezieht sich auf die Änderungen der Größe eines 3D Objekt, indem man
es vergrößert oder verkleinert.
28.Wie funktioniert rotieren in Blender?
Man kann das Rotieren mit dem R taste machen und dann die Maus
bewegen.
29.Wie funktioniert extrudieren in Blender?
Extrusionswerkzeuge duplizieren Vertices, wobei die neue Geometrie mit
den ursprünglichen Vertices verbunden bleibt. Vertices werden in Kanten
umgewandelt und Kanten bilden Flächen. Mit dem E taste kann man
extrude machen.
30.Warum kann es wichtig sein, sich vor dem Extrudieren die Normalen
anzeigen zu lassen? Was sind die Normalen?
Das Extrudieren findet anhand eine Normale stat. Eine Normale ist eine
Vektoreigenschaft eines 3D Modells, die die Ausrichtung der Oberfläche des
Modells an jedem Punkt beschreibt

31.Was ist UV-Mapping?


UV Mapping ist ein Prozess, bei dem 2D-Texturkoordinaten auf die
Oberfläche eines 3D Modells projiziert werden. Die UV-Koordinaten
bestimmen, wie eine Textur auf das Modell angewendet wird.
32.Wie funktioniert UV-Mapping? Welche Schritte muss man in Blender
unternehmen, um es zu machen. (Skizze, Beschreibung, Vorgehen)
Wenn man mit einer Schere einen Teil des Kartons durchschneidet, kann
man ihn flach auf einen Tisch legen. Von oben betrachtet, kannst du sagen,
dass U für die Links-Rechts-Richtung steht und V für die Oben-Unten-
Richtung. Dies ist dann eine zweidimensionale (2D) Abbildung. Anstatt der
üblichen X- und Y-Koordinaten, die normalerweise (zusammen mit Z) für
den dreidimensionalen Raum (3D) verwendet werden, verwenden wir U
und V, um diese "Textur-Raum-Koordinaten" zu beschreiben.
33.Warum sind Collections in Blender wichtig?
Sie sind eine Methode, um 3D-Objekte zu organisieren und zu gruppieren.
Eine Collection ist eine Container, in dem mehrere Objekte gruppiert
werden können.
34.Wie funktioniert das Loop-Cut Tool in Blender?
Der Loopcut ist ein Werkzeug, mit dem man eine Loop aus Vertices und
Edges in ein Mesh-Objekt einfügen kann. Mit dem CTRL + R kann man es
aktivieren.
35.Wie funktioniert das Inset-Tool in Blender?
Es ist ein Werkzeug, das verwendet wird, um eine Insel innerhalb einer
größeren Fläche zu erstellen. Es ermöglicht es, eine Insel durch Hinzufügen
eines Abstands um ihre Kanten herum zu erstellen. Mit I kann man dieses
Aktivieren.
36.Was ist Sculpting?
Sculpting ist die Modellierung eines Objekts.
37.Warum kann Dyntopo für Sculpting wichtig sein?
DynTopo ist eine Funktion, die es ermöglicht, die Geometrie eines 3D-
Modells dynamisch während des Sculpting-Vorgangs zu verändern und zu
optimieren. Blender kann automatisch Polygone hinzufügen oder
entfernen.
38.Was sind Modifier?
Sie sind Werkzeuge, mit denen man ein Mesh verändern kann, ohne das
ursprüngliche Mesh zu bearbeiten. Man kann Änderungen machen, ohne
das Original zu verändern.

39.Was bedeutet es, wenn man einen Modifier anwendet?


Man kann die Funktionalität des Meshesm ohne es tatsächlich zu
modellieren.
40.Wie funktioniert der Decimate-Modifier?
Es ist ein Modifier, der dazu verwendet wird, die Anzahl der Polygone in
einem Mesh zu reduzieren, wodurch das Mesh einfacher wird.
41.Was macht der Bloom-Effekt?
Es erzeugt einen glühenden Effekt um helle Lichtquellen oder Reflexionen.
42.Was macht Ambient-Occlusion?
Es wird als Shading-Option verwendet, um subtile in den Ecken, Kanten, zu
erzeugen.
43.Was bedeutet Modular Scene Building?
Es bezieht sich auf eine Methode des Szenenaufbaus, bei der verschiedene
Elemente verwendet werden, um eine größere Szene zusammenzusetzen.
44.Wie würdest du vorgehen, um eine eigene Spielewelt modular zu
erstellen?
Es bietet eine Flexibilität bei der Gestaltung von Szenen. Die Module sind
unabhängig, deshalb können sie leicht austauschen, um neue Umgebungen
zu schaffen.
45.Welche Vor- und Nachteile bringt es?
Vorteile
Es liegt in seiner Effizienz und Wiederverwendbarkeit, weil die Module
vorgefertigt sind und das spart viel Zeit und Ressourcen.
Nachteile
Es kann komplex sein in großen Projekten
46.Was ist ein Bevel in Blender? (Erklärung, Skizze, Beispiel)
Es ist ein Tool, um die Kanten eines Modells zu verfeinern und ihn ein
abgerundetes Aussehen zu geben.
CTRL + B um das Bevel zu aktivieren, dann müssen wir die Vertices mit g
bewegen.
47.Wie verwendet man „Affect Vertices“ im Zusammenhang mit einem
Bevel?
Um Bevels an den Ecken einzufügen, benötigen ein andere Option. CTRL+B
und dann V für affect Vertices. Man kann Affect Vertices auch um Kerben
einzufügen. Dazu müssen wir ein Bevel machen.
48.Welche Schritte würdest du unternehmen, um ein einfaches Low-Poly-
Fass/... zu erstellen?
Ein Zylinder mit Shift + a erstellen.
Loop cut machen : Shift + R
Dann die Kannten selectieren und sie skalieren.
Dann ein Bevel machen mit CTRL + B
Dann ein Inset machen mit I und dann Extrude für die oberen Fläche.
49.Wofür verwendet man das Blender Kommando Merge-By-Distance?
Welches Problem kann man damit lösen?
Merge By Distance ist ein Werkzeug, um überflüssige oder doppelte
Vertices zu entfernen.
50.Wie funktioniert der Mirror-Modifier?
Die Mirror Modifier spiegelt und dupliziert ein Objekt entlang seiner lokalen
Achsen. Es wird verwendet, um symetrische Formen in einem Modell zu
machen.
51.Was ist der Origin eines 3D-Modells in Blender? Wie kann man diesen
verschieben? Warum ist das für den Mirror-Modifier wichtig?
Der Origine ist der Orange Punkt in der Mitte des Objekts. Es represäntiert
den zentralen Punkt des Objekts. Man kann es einfach im Edit Modus
verschieben.
52.Wofür verwendet man das „Apply“-Kommando in Blender? Warum kann
das für die Skalierung wichtig sein?
Wenn man ein Objekt skaliert, dann wird die visuelle Größe geändert, aber
nicht unbedingt die Maße im Raum. Das heißt es kann passieren, dass die
Skalierung nicht bei 1.0 liegt, und dass kann zu Problemen führen. Wenn
man Apply Scale macht, dann wird die aktuelle visuelle Skalierung des
Objekts auf 1.0 zurückgesetzt.
53.Was ist das Knife-Tool in Blender? Wie benutzt man dieses?
Das Knife Tool ermöglicht uns, benutzerdefinierte Schnitte entlang der
Oberflächen unserer 3D Modelle zu erstellen. Mit der K kann man dieses
Tool aktivieren.
54.Was ist die Drei-Finger-Regel? Wie funktioniert diese? (Skizze)
Die Drei Finger repräsentieren die Achsen, X, Y, Z. Bei den rechtshändigen
Systemen wird die X-Achse Positiv und bei den linkshändigen Systemen die
X-Achse wird negativ.

55.Was ist eine Projektion


Es ist eine Methode um Objekte aus einer 3D Welt auf einen 2D Fläche
übertägt.
56.Was ist die perspektivische Projektion. Erkläre sie mit einer Skizze.
Es ist die meistgenutzte Methode, um 3D Graphik auf einem 2D Bildschirm
darzustellen. Sie entspricht der Funktionsweise des menschlichen Auges.
Es wird verwendet, um Szenen so darzustellen, wie sie im echte Leben
erscheinen.
57.Was ist die orthogonale Projektion. Erkläre sie mit einer Skizze.
Die Orthogonale Projektion behält die Größe und Proportionen der Objekte
bei, egal wie weit sie entfernt sind. Parallele Linien bleiben parallel, ohne an
einem Punkt zu konvergieren.
58.Was ist der Unterschied zwischen der orthogonalen und perspektivischen
Projektion? Wann und wofür benutzt man welche Projektion in Blender?
Unsere Augen sind an die perspektivische Betrachtung gewöhnt, bei der
entfernte Objekte kleiner erscheinen.
Die Ortografische Projektion wirkt seltsam, weil die Objekte unabhängig
weit entfernten Punkt aus betrachten.
59.Was sind: Sichtstrahl, Projektionsebene und Fluchtpunkt?
• Sichtstrahl ist eine imaginäre Linie, und bestimmt, welche Objekte
sichtbar sind.
• Projektionsebene ist eine imaginäre Fläche, auf die die 3D Szene
projiziert wird, um ein 2D Bild zu erzeugen.
• Fluchtpunkt ist ein Punkt in einem perspektivischen Bild, an dem sich
alle Linien, die im 3D Raum parallel sind, treffen.

Das könnte Ihnen auch gefallen