Blogpost vom 06. November 2023
Auf eine Tasse Java mit Dr. Stefan Jakob
Stefan, du gehörst bei Micromata zu den erfahrensten KI-Experten. Was fasziniert dich persönlich an Künstlicher Intelligenz?
Mich faszinieren zwei Aspekte des KI-Forschungsbereichs. Der erste Aspekt ist die geschichtliche Entwicklung der Künstlichen Intelligenz. In den ersten Jahrzehnten nach der Veröffentlichung von „Computing Machinery and Intelligence“ durch Alan Turing wurde eine Vielzahl an Algorithmen entwickelt, die mit den damaligen Rechenkapazitäten kaum nutzbar bzw. umsetzbar waren. Erst im Laufe der Zeit, inkl. einiger harter Rückschläge, konnten sie dank steigender Rechenkapazitäten effektiv eingesetzt werden.
Dadurch ist eine Vielzahl an Methoden und weiteren Algorithmen entstanden, die unterschiedlichste Probleme lösen können. Heute können wir unterschiedlichste Kombinationen ausprobieren, um eine möglichst optimale Lösung zu erzielen.
Der zweite Aspekt ist die Fähigkeit verschiedener Methoden, wie z. B. die der Neuronalen Netze, neue Aufgaben zu lernen. Diese Aufgaben bzw. Fähigkeiten reichen vom Aneignen einfacher mathematischer Funktionen bis hin zum Erwerb natürlicher Sprache (siehe ChatGPT). Sie sind dabei nicht eingeschränkt – und wir haben höchstwahrscheinlich ihr volles Potential noch längst nicht ausgeschöpft.
Was macht dir beim Arbeiten mit KI am meisten Spaß?
Besonders die Anfangsphase in Projekten mit analytischer und kognitiver KI. Weil wir hier eine sehr große Freiheit in der Auswahl und eine offene Spielwiese zum Testen von KI-Algorithmen und Methoden haben.
In dieser Phase beschäftigen wir uns sehr viel mit den Daten an sich, versuchen, Zusammenhänge bzw. Eigenarten der Daten zu verstehen und einen Gesamtüberblick über das zu lösende Problem zu bekommen. Typische Fragen, die in dieser Phase auftreten, sind zum Beispiel, ob die Daten mit Klassen versehen sind, um welche Art von Daten es sich handelt, ob sie rein numerisch, Texte, Bilder oder eine Mischung aus all dem sind. Diese Fragen beeinflussen die anschließende Auswahl der KI-Methoden bzw. Algorithmen nämlich maßgeblich. Denn hier steht eine Vielzahl von Möglichkeiten mit unterschiedlicher Komplexität bereit.
Typischerweise beginnen wir mit einem sehr einfachen Ansatz, um einen ersten Benchmark zu erstellen. Einer davon ist kNN (k Nearest Neighbours) und eignet sich dann besonders, wenn man Zugriff auf einen klassifizierten Trainingsdatensatz mit numerischen Daten hat. kNN sucht die k nächsten Nachbarn und weist neuen Datenpunkten die Klasse zu, welche in den k Nachbarn am häufigsten vorkommt. Da bei der Suche nach diesen k nächsten Nachbarn allerdings alle Daten betrachtet werden müssen, erhöht sich die Laufzeit mit jedem Datenpunkt. Somit eignet sich kNN später nicht für den produktiven Betrieb.
Nachdem der erste Benchmark vorhanden ist, beginnt die eigentliche Konzeptions- und Forschungsarbeit. Wir suchen passende Algorithmen aus und vergleichen ihre Leistung mit dem Benchmark, um eine möglichst optimale Lösung zu finden. Diese ist anfangs zumeist nicht eindeutig und stellt bei jedem Projekt eine neue und spannende Herausforderung dar.
Was empfiehlst du Unternehmen, um die Vorzüge von KI besonders wertschöpfend zu nutzen?
Viele Unternehmen sitzen auf einem sich stetig vermehrenden Datenschatz. Und dieses Datenvolumen vervielfacht sich ständig, als logische Folge einer immer intensiveren Nutzung digitaler Produktions-, Informations- und Kommunikationskanäle.
Hier können KI-Methoden oder Algorithmen besonders gut wertschöpfend eingesetzt werden. Im Falle von IoT-Daten eignen sich dafür am besten analytische oder kognitive KI-Verfahren. Durch sie kann die Qualität der Daten erhöht werden, indem Datenfehler automatisiert erkannt und behoben werden. Diese bereinigten Daten bilden dann eine gute Grundlage zur Anwendung weitere Verfahren, wie z. B. Anomalieerkennung oder Trendanalysen.
Zusätzlich sehe ich sehr große Vorteile im Einsatz von generativer KI. So können etwa Onboarding-Prozesse deutlich beschleunigt werden, wenn Unternehmen mit Chatbots arbeiten. Zudem wird die Suche nach wichtigen Informationen erleichtert und beschleunigt. Etwa bei der Arbeit mit großen Dokumenten, sowohl bei der Zusammenfassung des Inhalts als auch zur Abfrage bestimmter Informationen aus dem Dokument per Chatbot.
KI, insbesondere der Einsatz von Sprachmodellen wie ChatGPT wird ja auch von Sorgen begleitet.
Der Einsatz von Sprachmodellen hat große Vorteile, doch auch über mögliche Risiken sollten wir uns bewusst sein. Zum Beispiel bei Transparenz und Erklärbarkeit der generierten Antworten. Bisher liefert ChatGPT keine Quellen zu den generierten und häufig sehr überzeugend klingenden Antworten. Hierdurch können Falschinformationen entstehen, die dann in Umlauf geraten. Ansätze wie GPT Researcher bieten hier indes bereits gute Ansätze und liefern die Quellen mit, auf denen die generierten Antworten beruhen.
Es kann passieren, dass wir uns in Zukunft sehr stark von KI abhängig machen. In kritischen Bereichen wie Gesundheit oder Verkehrswesen sollten Entscheidungen deshalb weiterhin durch echte Menschen überwacht werden, um schwerwiegende Fehler zu verhindern.
Zudem müssen wir uns vor Betrugsmaschen wie bspw. Deep Fakes und anderen Angriffsmustern schützen. Hier ist die gesamte Gesellschaft gefragt – von Unternehmen und Institutionen bis hin zu jedem/jeder Einzelnen.
Denkst du wir werden eines Tages die berühmt-berüchtigte AGI* haben?
Artificial General Intelligence (AGI) ist ein sehr schwieriges Thema, bei dem die Meinungen über den aktuellen Stand der Forschung sehr weit auseinander gehen. Ich denke, wir bewegen uns aktuell in eine vielversprechende Richtung, denn mit den momentanen Sprachmodellen wie GPT-4 haben wir bereits eine Grundlage geschaffen, auf der Agenten in natürlicher Sprache miteinander kommunizieren können. Tools wie YOLOv8 (You Only Look Once) bieten die Möglichkeit zu maschinellem Sehen, also Objekte in Echtzeit zu erkennen.
Einige wichtige Bausteine zur Erschaffung einer AGI sind damit bereits vorhanden. Jedoch können Sprachmodelle die gelernten Token nicht im eigentlichen Sinne verstehen, sie ahmen sie bisher nur nach und wenden sie an. Auch Herausforderungen wie der berühmte „Chinese Room“ sind bisher noch nicht gelöst, was indes ein wichtiger Schritt Richtung AGI wäre.
Ich denke, in den nächsten Jahren wird die Forschung große Fortschritte in dieser Richtung erzielen. Ob und wann wir es schaffen, AGI zu realisieren, ist Stand heute noch sehr schwer zu sagen, aber da ist eindeutig Bewegung drin.
Vielen Dank für das Gespräch, lieber Stefan!
*Artificial General Intelligence
Hier gibt’s noch mehr Interviews mit Micromat:innen: