Das Wichtigste in Kürze

Wo liegen die Gemeinsamkeiten und Unterschiede von Künstlicher Intelligenz, Machine Learning und Deep Learning? Im Folgenden werden einige Begriffe von methodischen Grundlagen bis hin zu Spezialgebieten im Bereich der Künstlichen Intelligenz kurz vorgestellt.

Künstliche Intelligenz (engl.: Artificial Intelligence, AI) bezeichnet Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, etwa Mustererkennung, Entscheidungsfindung oder Sprachverarbeitung. In der Forschung basiert KI meist auf statistischen Methoden und Optimierungsverfahren.

In der Physik wird KI vor allem zur Analyse großer Datensätze, zur Simulation komplexer Systeme und zur Steuerung von Experimenten eingesetzt. Die Forschung befasst sich außerdem mit Fragen der Automatisierung, der Hardwareentwicklung sowie mit Energie- und Nachhaltigkeitsaspekten beim Einsatz von KI.

Multimodale und agentische KI

Multimodale KI verarbeitet verschiedene Datentypen (Text, Bilder, Audio) gleichzeitig – ähnlich wie in der Physik, wo man z. B. aus Spektren und Bildern auf Materialeigenschaften schließt.

Agentische KI (agentic AI) betrifft KI, die Ziele autonom verfolgen kann, somit Entscheidungen treffen, Abläufe koordinieren und mit ihrer Umgebung interagieren kann. Sie nützt der Steuerung und Durchführung von Experimenten, Simulationen sowie Analysen, wobei KI in Echtzeit auf neue Daten und Anforderungen reagieren soll.

Machine Learning (ML)

Machine Learning (maschinelles Lernen, ML) ist ein Teilgebiet der KI, bei dem Algorithmen aus Daten lernen, ohne explizit programmiert zu werden. Modelle erkennen statistische Muster und können daraus Vorhersagen für neue Daten ableiten. Zur Datenverarbeitung können diverse Methoden mit unterschiedlichen Fähigkeiten und Funktionsweisen zum Einsatz kommen, darunter Entscheidungsbäume, lineare Regressoren oder künstliche Neuronennetze.

In der Physik wird ML beispielsweise zur Analyse von Detektordaten in der Teilchenphysik oder zur Vorhersage von Materialeigenschaften eingesetzt. Häufig unterscheidet man zwischen Klassifikations- und Regressionsaufgaben, für die lineare und nichtlineare Modelle unterschiedlicher Komplexität verwendet werden. Die Physik befasst sich zudem mit der Entwicklung spezialisierter ML-Hardware, etwa im Bereich des hirninspirierten Rechnens (neuromorphic computing).

Deep Learning (DL)

Deep Learning bezeichnet Machine-Learning-Methoden, die tiefe neuronale Netze mit vielen Verarbeitungsschichten verwenden. Diese Modelle können besonders komplexe Strukturen in Daten erkennen, etwa in Bildern, Zeitreihen oder hochdimensionalen Simulationen.

In der Physik wird Deep Learning für Analyse-, Simulations- und Gestaltungsaufgaben eingesetzt, beispielsweise bei der Auswertung astronomischer Beobachtungen, in Simulationen von Vielteilchensystemen oder zur Optimierung von Designparametern bei der Herstellung komplexer Strukturen.

Neuronale Netze

Neuronale Netze (NN) sind mathematische Modelle, die aus vielen miteinander verbundenen Verarbeitungseinheiten („Neuronen“) bestehen. Sie sind lose an die Informationsverarbeitung biologischer Nervensysteme angelehnt. Durch Anpassung der Verbindungsgewichte während eines Trainingsprozesses können sie komplexe Funktionen approximieren.

Beim sogenannten überwachten Lernen wird die Vorhersage des Modells mit bekannten Zielwerten verglichen, um die Gewichte schrittweise anzupassen und die Vorhersagegenauigkeit zu verbessern.

Neuronale Netze werden unter anderem zur Analyse großer Datensätze, zur Mustererkennung sowie zur Beschleunigung numerischer Simulationen eingesetzt. Sie unterscheiden sich von einfacheren ML-Methoden insbesondere dadurch, dass sie Eingaben und Ausgaben über komplexe nichtlineare Funktionen verknüpfen und damit auch hochdimensionale Zusammenhänge modellieren können.

Reinforcement Learning

Reinforcement Learning ist ein Lernverfahren, bei dem ein Algorithmus durch Belohnungssignale eine optimale Strategie entwickelt. Ein sogenannter Agent interagiert dabei mit seiner Umgebung und verbessert sein Verhalten durch Versuch und Irrtum.

Durch die Auswertung eines iterativen Feedbacks in Form von positiven oder negativen Belohnungen lernt das System, situationsabhängige Entscheidungen zu treffen und langfristig erfolgreiche Strategien zu entwickeln.

In der Physik wird diese Methode beispielsweise zur automatisierten Steuerung von Experimenten oder zur Optimierung komplexer Messprotokolle eingesetzt

Generative Modelle

Generative Modelle sind KI-Systeme, die neue Daten erzeugen können, die statistisch den Trainingsdaten ähneln. Beispiele sind generative neuronale Netze wie Generative Adversarial Networks (GAN), große Sprachmodelle (Large Language Models, LLM) sowie Diffusionsmodelle. Bekannt sind solche Modelle vor allem für Anwendungen in der Bild-, Ton- oder Textgenerierung.

In der physikalischen Forschung werden generative Modelle genutzt, um Simulationen zu beschleunigen oder komplexe Ereignisse – etwa Teilchenkollisionen – effizient nachzubilden. Außerdem können synthetische Daten erzeugt werden, die datenintensive Trainingsprozesse unterstützen.

Diffusionsmodelle

Diffusionsmodelle sind eine Klasse generativer KI-Verfahren, die auf mathematischen Modellen stochastischer Diffusionsprozesse basieren. Dabei werden Daten schrittweise mit zufälligem Rauschen überlagert, bis ihre ursprüngliche Struktur weitgehend verloren geht. Das Modell lernt anschließend, diesen Prozess umzukehren und aus verrauschten Daten wieder strukturierte Informationen zu rekonstruieren.

Die zugrundeliegenden Gleichungen stehen in enger Beziehung zu physikalischen Diffusionsprozessen wie der Brownschen Bewegung. In der Physik werden Diffusionsmodelle beispielsweise zur schnellen Approximation aufwendiger Simulationen, zur Rekonstruktion experimenteller Daten oder zur Reduktion von Rauschen in Daten genutzt.

Genetische bzw. evolutionäre Algorithmen

Genetische oder evolutionäre Algorithmen sind Optimierungsverfahren, die von der biologischen Evolution inspiriert sind. Eine Population möglicher Lösungsvarianten wird über mehrere Generationen hinweg verändert, indem Mechanismen wie Selektion, Mutation und Rekombination angewendet werden. Varianten mit besserer „Fitness“ setzen sich schrittweise durch.

Solche Verfahren eignen sich besonders für komplexe Optimierungsprobleme mit vielen lokalen Optima. In der physikalischen Forschung werden evolutionäre Algorithmen beispielsweise zur Optimierung von Experimentparametern, zur Entwicklung neuer Materialstrukturen oder zur Anpassung komplexer Steuersequenzen eingesetzt.

Physik-informiertes Machine Learning

Beim physik-informierten Machine Learning werden bekannte physikalische Gesetze direkt in das Training eines KI-Modells integriert. Dadurch lassen sich Modelle mit weniger Trainingsdaten stabiler trainieren und physikalisch konsistente Ergebnisse erzielen.

Solche Methoden werden beispielsweise in der Strömungsmechanik, im Optikdesign oder in der Materialsimulation eingesetzt, um Vorhersagen, Modellierungen und Simulationen zu beschleunigen und gleichzeitig physikalische Randbedingungen einzuhalten.

Neuromorphes Computing

Neuromorphes Computing bezeichnet Rechenarchitekturen, die sich an der Struktur und Funktionsweise biologischer Nervensysteme orientieren. Solche hirninspirierten Systeme arbeiten stark parallel und können besonders energieeffizient sein.

Beispiele sind spezialisierte Chips oder physikalische Systeme, etwa optische, magnetische oder elektronische Bauelemente, deren Dynamik gezielt zur Verarbeitung neuronaler Signale genutzt wird. Aktuelle Forschung untersucht unter anderem Hardwareplattformen, die auf magnetischen Materialien, photonischen Systemen oder nichtlinearen Oszillatoren basieren und neuronale Informationsverarbeitung direkt in physikalischen Prozessen realisieren.

Reservoir und In-Memory Computing

Reservoir Computing nutzt physikalische Systeme als „Reservoir“, um Daten zu verarbeiten – inspiriert von der Dynamik nichtlinearer Systeme in der Physik. In-Memory Computing integriert Speicher und Verarbeitung, um Energie zu sparen.

Beide Ansätze ermöglichen effizientere KI-Hardware, z. B. für die Echtzeitanalyse von Sensordaten oder die Simulation von neuronalen Netzen.

Quantum Machine Learning

Quantum Machine Learning verbindet Methoden des maschinellen Lernens mit Quantencomputern. Ziel ist es, bestimmte Rechenaufgaben – etwa die Simulation komplexer Quantensysteme oder bestimmte Optimierungsprobleme – effizienter zu lösen.

Dabei sollen quantenmechanische Effekte wie Superposition und Verschränkung genutzt werden. Die Forschung steht noch am Anfang und ist eng mit der Entwicklung leistungsfähiger Quantencomputer verbunden, die derzeit weltweit in Forschungseinrichtungen und der Industrie entwickelt werden.