Differences
This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
| kurse:ef05a-2021:classificationtrees [2022/03/16 08:03] – Simon Knaus | kurse:ef05a-2021:classificationtrees [2022/03/16 08:05] (current) – Simon Knaus | ||
|---|---|---|---|
| Line 1: | Line 1: | ||
| + | ====== Klassifikationsbäume ====== | ||
| + | ==== Beispiel Code: Klassifikation ==== | ||
| + | [[https:// | ||
| + | ==== Beispiel Code: Feature Importance ==== | ||
| + | [[https:// | ||
| + | ==== Baumtiefe ==== | ||
| + | Trainiert (berechnet) man den Baum auf den Trainingsdaten, | ||
| + | |||
| + | Problem: Dieser perfekte Baum funktioniert sehr schlecht für neue Daten (Testdaten). Um das zu lösen werden die Daten in Evaluations-Daten (<< | ||
| + | |||
| + | === Idee === | ||
| + | Erstelle eine Schlaufe, in der du über die Baumtiefe iterierst. In jeder Iteration, das heisst, für jede Baumtiefe, trainierst du einen Baum ('' | ||
| + | |||
| + | Diese Vorhersagen $\hat y$ ('' | ||
| + | |||
| + | '' | ||
| + | |||
| + | ==== Filtern ===== | ||
| + | |||
| + | numpy-Array können mit Boolschen-Arrays indiziert werden: | ||
| + | <code python> | ||
| + | import numpy as np | ||
| + | |||
| + | src_path = " | ||
| + | keydata = np.loadtxt(fname = src_path, delimiter = ',', | ||
| + | #So werden nur die Zeilen verwendet, welche in der 1. Spalte den Wert 49 haben | ||
| + | filteredkeydata = keydata[keydata[:, | ||
| + | print(filteredkeydata) | ||
| + | </ | ||
| + | Diese Idee kann mit '' | ||
| + | |||