KI - Die Bedrohungen hinter dem Segen

Im Rahmen unserer Tech-Talks hielt Univ.-Prof. DI DI Dr. Stefan Rass von der Johannes Kepler Universität Linz einen Vortrag über die Technikfolgenabschätzung von KI.

Er betonte die Probleme der Vertraulichkeit von Trainingsdaten und die Gefahr, durch Veränderung der Metrik von KI-Modellen „gewünschte“ Ergebnisse zu erzwingen. Diese könnten als DSGVO-konform und pseudo-objektiv dargestellt werden. Transparenz bei der Modellerstellung ist daher essenziell.

Ein weiteres Thema war die Schwierigkeit, Daten gezielt aus KI-Modellen zu löschen, um Biasing zu verhindern.

Large Language Models (LLM) wie ChatGPT bezeichnete er als „hochkomplexe Zufallsgeneratoren“, da ihre Antworten auf Wahrscheinlichkeiten beruhen. ChatGPT 3.0 wurde mit 233 Millionen Buchseiten trainiert, jedoch fehlt es an semantischem Verständnis und logischen Schlussfolgerungen.

Er warnte vor der Gefahr, dass LLMs degenerieren und kritische Foren wie Stack Overflow austrocknen könnten, was zu einem Verlust von Weltwissen führen würde („catastrophic forgetting“).

Seine Schlussfolgerung: Bleiben Sie kritisch, hinterfragen Sie Antworten und bleiben Sie neugierig und enthusiastisch. Nur so entsteht Fortschritt.

AV DI Harald Grünanger

Das könnte Sie auch interessieren...

ELTI

Unser Team der ELTI – Luis Blüml, Daniel Scheriau, Leon Steinhuber und Jonah Strohmaier (alle 4BHEL) – ist auf dem Weg zum dreitägigen CanSat-Finale…
mehr

ELTI

Im Rahmen eines Vortrags im Konferenzzimmer wurden alle Schülerinnen und Schüler der 2. Jahrgänge über die beiden Schwerpunkte „Software Engineering &…
mehr

ELTI

Um unseren Schülerinnen und Schülern eine praxisnahe Ausbildung zu ermöglichen, bieten wir unseren Kooperationspartnern die Gelegenheit, sich…
mehr