Bayreuther Mathematiker forschen zu den Grundlagen der Künstlichen Intelligenz

Symbolbild Bildung

Die Bayreuther Mathematik ist mit zwei Forschungsprojekten am Schwerpunktprogramm 2298 „Theoretical Foundation of Deep Learning“ der Deutschen Forschungsgemeinschaft (DFG) beteiligt. Das Hauptziel dieses Schwerpunktprogramms ist die Entwicklung einer umfassenden theoretischen Grundlage des Deep Learning. Für die beiden Projekte stellt die DFG der Universität Bayreuth in den kommenden drei Jahren 418.800 € zur Verfügung.

Deep Learning – ein Teilbereich der Künstlichen Intelligenz –  erlebt einen beispiellosen Erfolg in realen Anwendungen: beim autonomen Fahren, in der Steuerung von Stromnetzten oder im Gesundheitssektor. Gleichzeitig haben Deep-Learning-basierte Methoden einen starken Einfluss auf die Wissenschaft und ersetzen oft die hochmodernen klassischen modellbasierten Methoden, um mathematische Probleme zu lösen. Aber es fehlen der Forschung zu tiefen neuronalen Netzen weitgehend die mathematischen Grundlagen, die nötig sind, um die Fehleranfälligkeit der Techniken zu minimieren. Die von Prof. Dr. Lars Grüne und Prof. Dr. Anton Schiela vom Lehrstuhl für Angewandte Mathematik der Universität Bayreuth geleiteten Projekte befassen sich mit verschiedenen Aspekten dieses maschinellen Lernens.

Das Projekt von Prof. Grüne dreht sich um die Frage, wann tiefe neuronale Netze für hochdimensionale Steuerungs- und Regelungsaufgaben geeignet sind, also für Aufgaben, die von sehr vielen Einflussgrößen abhängen. Solche Anwendungen gibt es unter anderem bei der Regelung von großen Netzwerken, wie z.B. beim Management von Stromnetzen mit einer hohen Zahl von erneuerbaren Energiequellen. Aus der Praxis ist bekannt, dass Lernverfahren aus der Künstlichen Intelligenz mit tiefen neuronalen Netzen für manche solcher Aufgaben sehr gut funktionieren, für manche aber auch gar nicht. In dem Projekt wird nach den mathematischen Strukturen solcher Regelungsaufgaben gesucht, die der Grund dafür sind. Die Erforschung dieser mathematischen Grundlagen soll es ermöglichen, die Erfolgsaussichten solcher Lernverfahren besser einzuschätzen und Regelungs¬aufgaben gezielt so zu entwerfen, dass sie effizient lösbar sind. Damit kann zum Beispiel die Stromversorgung in einem System zahlreicher dezentraler Stromquellen – wie sie die Energiewende mit sich bringt – sicherer werden.

Das Projekt von Prof. Schiela, das in Kooperation mit Prof. Dr. Roland Herzog von der Universität Heidelberg durchgeführt wird, erforscht neue Methoden aus der mathematischen Optimierung für das Training tiefer neuronaler Netze. Diese sollen einerseits ein effizienteres Training ermöglichen, andererseits die Bestimmung von Parametern, die derzeit meist mühsam von Hand gesetzt werden müssen, automatisieren. Damit soll der Trainingsprozess der Künstlichen Intelligenz einfacher und zuverlässiger gestaltet werden. Dieses Projekt zielt nicht auf eine konkrete Anwendung tiefer neuronaler Netze ab, sondern wird Methoden entwickeln, die in sehr vielen verschiedenen Situationen eingesetzt werden können.

Beginn des Schwerpunktprogramms, an dem gut 20 Forschungsprojekte bundesweit beteiligt sind, ist im Herbst 2021. Link: https://www.spp2298.de

Hintergrund:

Machine Learning ist ein Teilbereich der Künstlichen Intelligenz, der Systeme in die Lage versetzt, aus Daten zu lernen und sich zu verbessern – durch Verwendung von mathematischen Optimierungsmethoden. Sie werden unter anderem in der Bildverarbeitung, beispielsweise bei der Erkennung von Verkehrszeichen in Autos oder bei der Steuerung von Robotern eingesetzt. Dabei werden die Verkehrszeichen oder Roboterbewegungen nicht fest einprogrammiert, sondern durch das sogenannte Training vorgegebenen Daten entnommen – oder eben „gelernt“. Deep Learning ist ein Teilbereich des Machine Learnings. Es nutzt neuronale Netze, die Strukturen des menschlichen Gehirns nachempfunden sind, und große Datenmengen (Big Data).