Sie sind auf Seite 1von 6

Hisham M M Almadhoun

11160439

1- print("Hello world!")

Hello world!

2- for i in range(1, 101):

print(i)
3- import random

random_values = [random.randint(-10, 10) for _ in range(100)]

print(random_values)

4- && 5- Erstens müssen


numpy >>> Python Biblothek
und auch matplotlib >>> das für die Erstellung von Diagrammen verwendet wird,
installiert werden. Wir öffnen Command prompt und schreiben:
pip install numpy
pip install matplotlib

Der Code für 4 und 5 ist:


import numpy as np

import matplotlib.pyplot as plt


# 100 zufällige Punkte im R^2 generieren

num_points = 100

x_values = np.random.uniform(-10, 10, num_points)

y_values = np.random.uniform(-10, 10, num_points)

# Plot erstellen

plt.figure(figsize=(8, 6))

plt.scatter(x_values, y_values, color='blue')

plt.title('Zufällige Punkte im R^2')

plt.xlabel('X-Achse')

plt.ylabel('Y-Achse')

plt.grid(True)

plt.show()

Das Ergebnis ist:


6-

7-

Die Wahl der Lernrate beeinflusst die Konvergenzgeschwindigkeit des


Gradientenabstiegs. Eine zu kleine Lernrate eta kann zu langsamem Lernen führen,
während eine zu große Lernrate dazu führen kann, dass der Algorithmus divergiert oder
oszilliert und nicht konvergiert.

In diesem Code verwenden wir eine zufällige Initialisierung für die Gewichte `w1` und
`w2`. Dann führen wir das Lernverfahren durch, indem wir zufällige Eingabewerte `x1`
und `x2` erzeugen, das gewünschte Ergebnis `y` berechnen, die Vorhersage `y_hat`
machen und die Gewichte basierend auf dem Fehler aktualisieren. Wir wiederholen diesen
Prozess für eine bestimmte Anzahl von Iterationen und speichern den Fehler für jede
Iteration.
Schließlich visualisieren wir die Fehlerentwicklung für verschiedene Lernraten. Es kann
beobachtet werden, wie sich der Fehler über die Iterationen für verschiedene Lernraten
entwickelt und ob das Verfahren konvergiert.

Das könnte Ihnen auch gefallen