Von Äpfeln und Birnen
Im Thema-Ressort ging es im Januar darum, was Wissen eigentlich ist. Was haben Künstliche Intelligenz, Machine Learning und Big Data damit zu tun?
Im Oktober 2004 begann Google mit einem ehrgeizigen Projekt: Google Books. 17 Jahre später ist der wissenshungrige Konzern im Besitz von Scans von über 40 Millionen Büchern in mehr als 400 Sprachen. Wenn die Rede von solchen beispiellosen Projekten der Wissensansammlung ist, sind die Schlagworte künstliche Intelligenz (KI) und Big Data meist nicht weit.
„Künstliche Intelligenz ist ein Sammelbegriff, in den vor allem maschinelles Lernen hineinspielt“, erklärt Eric Peukert, wissenschaftlicher Mitarbeiter am Institut für Informatik der Universität Leipzig und stellvertretender Geschäftsführer des Kompetenzzentrums für Künstliche Intelligenz und Big Data (Scads.AI). „KI setzt voraus, dass das System auf die Umgebung und den Kontext reagiert und zum Beispiel selbst entscheidet, wieder neue Daten zu sammeln“, sagt Peukert. Davon könne nur selten die Rede sein, die meisten Systeme nutzen das maschinelle Lernen. Das Scads.AI ist als Kooperation zwischen den Universitäten Leipzig und Dresden sowie mehreren weiteren Institutionen ein deutscher Dreh- und Angelpunkt für die Grundlagenforschung an den beiden Themen.
Beim maschinellen Lernen erlangt das System Wissen durch das Verarbeiten großer Datenmengen. Um ihm ein sogenanntes Modell, zum Beispiel das Unterscheiden von Äpfeln und Birnen, beizubringen, stellt man ihm tausende mit „Apfel“ oder „Birne“ beschriftete Bilder zur Verfügung. „Ein maschineller Lernalgorithmus kann jetzt Eigenschaften wie Kanten aus den Bildern extrahieren und lernt dann über die Häufigkeit dieser Eigenschaften, was einen Apfel oder eine Birne ausmacht“, erläutert Peukert.
Um herauszufinden, ob das Modell nun weiß, was Birnen und Äpfel sind, testen die Wissenschaftler*innen das Modell an einem weiteren Datenset. „Das Modell hat dann etwas gelernt, wenn es Bilder dieses Datensets besser klassifiziert als der Zufall“, sagt Peukert. Dabei hängt das Ergebnis stark von den Daten ab, die ins Modell hineinfließen. Sogenannte Data Scientists kuratieren diese Daten und bestimmt somit das Wissen, welches das System aus den Daten ableiten kann. Dabei sind KI-basierte Systeme schon in der Vergangenheit auffällig geworden. So hat sich zum Beispiel KI, die für US-Gerichte die Rückfallwahrscheinlichkeit von Straftäter*innen beurteilen soll, als rassistisch erwiesen.
„Machine-Learning-Modelle verknüpfen Häufigkeit schnell mit Wahrheit“, erklärt Peukert. Dass es laut der Gerichts-KI für Schwarze wahrscheinlicher ist, rückfällig zu werden, liegt an den historischen Daten, mit denen die KI trainiert wurde und in denen Schwarze statistisch häufiger wieder kriminell wurden. „Wenn Sie die zugrunde liegenden Daten nicht kennen, dann ist es schwierig, der KI zu vertrauen“, sagt Peukert. „Deshalb muss es für manche KI-Systeme Kontrollinstanzen geben, welche die Eingangsdaten überprüfen.“ Auch müssen Lai*innen verstehen können, wie eine KI Entscheidungen trifft. „Es gibt Modelle, bei welchen man die Entscheidungsfindung mit einem Baum visualisieren kann, aber auch andere Verfahren, die eher einer Blackbox ähneln. Und daran forschen wir gerade vermehrt.“
Titelfoto: Pexels
Hochschuljournalismus wie dieser ist teuer. Dementsprechend schwierig ist es, eine unabhängige, ehrenamtlich betriebene Zeitung am Leben zu halten. Wir brauchen also eure Unterstützung: Schon für den Preis eines veganen Gerichts in der Mensa könnt ihr unabhängigen, jungen Journalismus für Studierende, Hochschulangehörige und alle anderen Leipziger*innen auf Steady unterstützen. Wir freuen uns über jeden Euro, der dazu beiträgt, luhze erscheinen zu lassen.