DPG
Mitgliedschaft
Veranstaltungen
Programme
Preise
Veröffentlichungen
Presse
Service
 
Druckversion
Position: www.dpg-physik.de  >  veroeffentlichung  >  reden  >  umbach  >  red_clusters_nanotechnologie_2006.html

Prof. Dr. Eberhard Umbach, Würzburg
am 28. November 2006

Rede des Präsidenten
der Deutschen Physikalischen Gesellschaft e. V.
anlässlich der
Auftaktveranstaltung des Clusters Nanotechnologie
„Grundlagenforschung als Voraussetzung für Innovationen“
in der Universität Würzburg

Herr Staatsminister Dr. Goppel, Magnifizenz, Herr Professor Jahn, Herr Kollege Forchel, meine sehr verehrten Damen und Herren,

Beispiele sind besser als viele Worte. Lassen Sie mich deshalb zur Erläuterung der Wichtigkeit von „Grundlagenforschung als Voraussetzung für Innovationen“ mit einer Begebenheit aus der Geschichte der Physik beginnen. Ich zitiere dabei aus dem Buch „Die Einheit der Natur“ von Carl Friedrich von Weizsäcker, wobei die wissenschaftliche Beweiskraft dieser Geschichte nicht darunter leidet, dass ein bestimmtes Erzählmotiv – nämlich ein Apfelbaum – heute nicht mehr eindeutig nachgewiesen werden kann.

„Der junge Newton floh aus Cambridge, wo er studierte, vor der Pest in seine ländliche Heimat im östlichen England und lag – so geht die Anekdote – dort eines Tages unter einem Apfelbaum. (…). Ein Apfel fiel herunter, und er fragte sich: ‚Was ist eigentlich das, was den Apfel da herunterzieht?’ Und er sah den Mond, und er sagte sich: ‚Warum fällt der Mond nicht herunter?’ Die Antwort ist: Er fällt nicht herunter wegen des Trägheitsgesetzes. (…). Newton rechnete aus, welches die Kraft ist, die den Mond genau in einer Kreisbahn um die Erde zwingt. Diese Anziehungskraft verglich Newton in ihrer Größe mit der Anziehung der Erde auf den Apfel, und er machte die Hypothese, diese Anziehung variiere umgekehrt proportional zum Quadrat der Entfernung vom Erdmittelpunkt. Und was herauskam war falsch. Newton stellte fest, dass die Formel nahezu, aber nicht genau stimmte. Er ließ deshalb die Sache auf sich beruhen. Zehn oder fünfzehn Jahre kümmerte er sich nicht mehr um das Problem. Dann kamen neue Messungen des Erddurchmessers und der Mondentfernung, und es zeigte sich, dass mit den neuen, verbesserten Daten Newtons Rechnung genau stimmte. Erst in diesem Augenblick wagte er, die Sache wieder aufzunehmen, und daran knüpfte er seine Aufstellung des allgemeinen Gravitationsgesetzes“ (von Weizsäcker 1974).

Warum habe ich dieses historische, 340 Jahre alte Apfelbaumbeispiel als Einstieg gewählt? Es zeigt besonders beispielhaft die wesentlichen Voraussetzungen für Innovationen, in diesem Fall die Ableitung des äußerst wichtigen Gravitationsgesetzes. Erstens ein neugieriger und gut ausgebildeter Forscher, zweitens die Freiheit, ohne äußeren Druck zu beobachten und dann mit Begeisterung nachzuforschen, sprich der eigenen Neugier und Intuition nachzugeben, und drittens viel Geduld und Zeit, um des Rätsels Lösung schließlich doch noch zu finden. Erst dann konnte die anfängliche Beobachtung erklärt werden und damit ihre volle Wirkung erzeugen.

In der Folge gab und gibt es unzählige weitere Beispiele dieser Art. Ohne Übertreibung kann man davon ausgehen, dass fast alle bedeutenden naturwissenschaftlichen und technischen Entwicklungen, die unsere Wirtschaft, unser Leben und unsere Erkenntnisse in der Vergangenheit geprägt haben und in Zukunft prägen werden, auf solche Entdeckungen und damit auf die Ergebnisse der Grundlagenforschung zurückgehen. Fast überall, wo Technik und Innovation draufsteht, ist Grundlagenforschung drin bzw. hat die Grundlagenforschung den Grundstein gelegt. Ich möchte noch ein paar weitere, besonders herausragende Beispiele erwähnen, bevor ich auf die heutige Situation der Grundlagenforschung eingehe. Sie werden sich sicher nicht wundern, dass ich meine Beispiele aus der Physik gewählt habe, denn diese lässt mich den historischen Bogen am eindrücklichsten spannen. Und die Physik hat in den Wissenschaften immer eine gewisse Vorreiterrolle gespielt.

1. Beispiel: Die Quantenmechanik, die das Verständnis mikroskopischer Systeme und der hier zu würdigenden Nanotechnologie ermöglichte und damit die Atom-, Molekül- und Festkörperphysik begründete, hat ihren Ursprung vor etwa 100 Jahren. Sie basiert auf einer Reihe grundlegender Entdeckungen, die aus purer Neugier und Entdeckerlust, sowie aus Wettstreit, Ehrgeiz und Ausdauer entstanden. Die wichtigsten Ergebnisse waren die Entdeckung des Photoeffekts durch Hertz und Hallwachs und seine Erklärung durch Einstein, die Entdeckung der Röntgenstrahlen durch W.C. Röntgen hier in Würzburg, die präzise Messung der Strahlung sog. schwarzer Körper und deren exakte quantitative Beschreibung durch Max Planck, die Rutherfordsche Erklärung des Streuverhaltens von Alphateilchen, und die Rydbergformel und die daraus abgeleiteten, aber in sich unstimmigen Atommodelle von Bohr und Sommerfeld. Erst die mathematische Behandlung durch Heisenberg und Schrödinger führte zu einer konsistenten und noch heute gültigen Beschreibung der elektronischen Eigenschaften und damit zur Geburt der Quantenmechanik, ohne die wir uns in der Nanowelt überhaupt nicht zurechtfinden würden. Aus diesem Beispiel lernen wir, wie wichtig die Kooperation zwischen internationalen Arbeitsgruppen und zwischen Experiment und Theorie ist, dass Wettbewerb zu Höchstleistungen anspornt und dass elementare Neugier und scheinbar ziellose Suche nach Erkenntnissen die wunderbarsten und wichtigsten Entdeckungen ermöglichen.

2. Beispiel: Etwa 50 Jahre später kam es zu einer anderen epochalen Entdeckung. In vielen Kulturen werden Kristallen besondere, ja magische Kräfte zugeschrieben, und in der Literatur wurde oftmals nach dem Stein der Weisen gesucht. Die Physiker sprechen Kristallen zwar keine magischen Eigenschaften zu, gleichwohl sind Kristalle auch in der Physik begehrte Objekte der Forschung. Mit der Grundlagenforschung an Germanium- und Siliziumkristallen wurde die Tür zur Entwicklung der heutigen Elektronik und damit auch zur Kommunikations- und Datenverarbeitungstechnologie aufgestoßen. Mittels Dotierung, also künstlicher Verunreinigung, konnten die elektrischen Eigenschaften von halbleitenden Materialien gezielt verändert werden. Dies gelang den US-Physikern Bardeen, Brattain und Shockley von den Bell-Laboratorien mit einem unscheinbaren Germanium-Kristall, mit dem sie elektrische Signale 100-fach verstärken konnten. Daraus entwickelte sich die Transistortechnologie, die es heutzutage durch moderne Strukturierungstechniken erlaubt, Transistoren herzustellen, die nur wenige hunderttausendstel Millimeter, also wenige 10 Nanometer groß sind. Kein Handy, Computer, Fernsehgerät, Auto, Satellit, keine Digitalkamera und kaum eine Maschine kommen heute ohne diese kleinen elektrischen Schalter und Verstärker aus. Diese Entdeckung wurde 1956 mit dem Nobelpreis für Physik ausgezeichnet.

3. Beispiel: Und natürlich ist aus der modernen Kommunikationsgesellschaft auch ein weiteres Ergebnis der Grundlagenforschung nicht mehr wegzudenken: der Laser. Die Theorie des Lasers geht bereits auf die Formulierung der stimulierten Emission durch Albert Einstein in den 30er Jahren zurück. Es war dann Charles Townes (Nobelpreis 1964), der die stimulierte Emission erstmals zur Verstärkung einsetzte, indem er 1954 den Maser entwickelte, der im Mikrowellenbereich arbeitet. Der erste Laser – ein Rubin-Festkörperlaser – wurde 1960 von Theodore Maiman gebaut. Laser kommen heute in sehr vielen Bereichen der Forschung sowie als zentrale Elemente vieler Techniken zum Einsatz. Sie sind u.a. Grundlage vieler Arten von Präzisionsmessungen, der CD-Technik, der Glasfaser-Datenübertragung, der Laser-Schweißtechnik, der Laser-Augenheilkunde, usw.

4. und 5. Beispiel: Grundlagenforschung führte auch in den 80er Jahren bei IBM Zürich zu spektakulären Ergebnissen, die mit der Verleihung weiterer Nobelpreise geehrt wurden, 1986 an Binnig und Rohrer für die Entwicklung des Rastertunnelmikroskops, das heute routinemäßig Einblicke in die Nanowelt ermöglicht, und 1987 an Bednorz und Müller für die Entdeckung der Hochtemperatur-Supraleitung in keramischen Materialien. Drei der genannten herausragenden Entdeckungen, Transistor, Tunnelmikroskop und Hochtemperatur-Supraleiter haben gemeinsam, dass sie in Industrielabors gemacht wurden. Dennoch waren sie das Ergebnis reiner Grundlagenforschung, die aus purer Neugier und durch die freie Entfaltung damals „verrückter“ Ideen ohne Vorgaben und äußere Zwänge gemacht wurden. Leider ist die Grundlagenforschung in der Industrie in der Zwischenzeit nahezu vollständig aus der Mode geraten, so dass an solche Erfolge heute kaum mehr angeknüpft werden kann.

6. Beispiel: Ein weiterer Meilenstein, um noch einmal die Steinmetapher zu verwenden, war in den späten 80er-Jahren die Entdeckung des Riesenmagnetowiderstandes durch Peter Grünberg im Forschungszentrum Jülich. Magnetismus war schon in der Antike bekannt und begegnet uns in vielen Naturphänomenen und technischen Anwendungen. Die in jüngster Zeit wohl spektakulärste und für Anwendungen wichtigste Entdeckung im Bereich des Magnetismus ist die des Riesenmagnetwiderstandes, des „Giant-Magneto-Resistance“ (GMR). Die Entdeckung dieses Effekts gelang dem Festkörperphysiker Grünberg und seinen Mitarbeitern 1988 an mikroskopischen Sandwich-Strukturen, die aus drei Schichten aufgebaut sind. Zwischen zwei magnetischen Schichten liegt eine wenige Atomlagen dünne, nichtmagnetische Schicht, die die magnetischen Momente der beiden magnetischen Schichten miteinander koppelt. Selbst sehr schwache Magnetfelder beeinflussen diese Kopplung und verändern dadurch den elektrischen Widerstand. Selten hat eine Entdeckung aus der reinen Grundlagenforschung so schnell Einzug in den industriellen Produktionsprozess gehalten, eine echte Erfolgsstory: Neunzig Prozent der gegenwärtig produzierten Festplattenspeicher nutzen diesen Effekt zumindest zum Auslesen von Daten. Der Effekt kommt außerdem im ABS-System von Autos und in MP3-Playern zur Anwendung, und er bzw. sein Verwandter, der TMR-Effekt öffnet die Tür zu einem völlig neuen Forschungsgebiet: der Spin(elek)tronik. Die Ausnutzung des Spins, neben der Ladung eine wesentliche Eigenschaft des Elektrons, könnte die gesamte Mikroelektronik revolutionieren. Peter Grünberg wird übrigens im Frühjahr durch die Stern Gerlach Medaille, der höchsten experimentellen Auszeichnung der Deutschen Physikalischen Gesellschaft geehrt.

Als 7. und letztes Beispiel möchte ich ein „Abfallprodukt“ der Grundlagenforschung erwähnen, das zu einer unüberschaubaren Veränderung unserer Gesellschaft geführt hat und noch weiter führen wird: das World Wide Web (WWW). Zwar hatte bereits 1969 die ARPA, eine Agentur des US-Verteidigungsministeriums, das ARPA-Netz zur paketorientierten Datenübertragung in Betrieb genommen, jedoch erst die Elementarteilchen-Physiker am CERN in der Nähe von Genf erkannten seine volle Bedeutung. Zur Übermittlung riesiger Datenmengen, die bei den Experimenten am CERN anfallen, und zur Auswertung und Kommunikation im Rahmen weltweiter Kooperationen entwickelte ein Team um Tim Berners-Lee eine Software, die es ermöglichte, mit unterschiedlichsten Computersystemen über ein einheitliches Netzwerk Datenpakete auszutauschen. Sie schufen eine Computersprache, mit der Informationen einheitlich aufbereitet werden konnten (Hypertext Markup Language, HTML), es wurden ein Protokoll für das Verschicken von HTML-Seiten (Hypertext Transfer Protocol, HTP) und ein Identifikationssystem zur einheitlichen Kennzeichnung von Dokumenten (Universal Resource Locator, URL) entwickelt. Diese Software wurde sofort von anderen Kollegen in der ganzen Welt aufgegriffen. Das World Wide Web begann sich zu entwickeln und das mit einer Rasanz, die ihresgleichen sucht. Ohne die Grundlagenforschung hätte es diese Entwicklung in dieser Form vielleicht nie gegeben.

Diese Beispiele mögen genügen, um deutlich zu machen, wie bedeutsam Grundlagenforschung und wie wichtig sie als Ausgangspunkt von Innovationen ist. Allerdings ist mit der Entdeckung meist nur eine neue Erkenntnis verknüpft, die – um zum Allgemeingut zu werden – erst noch verbreitet und popularisiert werden muss. Und es sind meist noch viele weitere Schritte notwendig, um aus einer neuen Erkenntnis ein marktfähiges Produkt zu machen oder um zu gesellschaftlichen und politischen Folgerungen und Handlungen zu kommen. Ersteres ist Aufgabe der Forscher, Ingenieure und Techniker. Letzteres ist unser aller Aufgabe, eine äußerst wichtige und zentrale Aufgabe, denken wir nur an die Energie- und Klimapolitik. Aber bleiben wir noch einen Augenblick bei der Umsetzung von Erkenntnissen in Produkte, weil dieser Aspekt mit dem Clusterkonzept der bayerischen Staatsregierung unmittelbar verknüpft ist.

Noch vor 20 – 30 Jahren war die Behauptung nicht ganz von der Hand zu weisen, dass die Entwicklung von Innovationen aus der Grundlagenforschung heraus vor allem in der Industrie zu geschehen habe, weil sich die Forscher in ihren Elfenbeintürmen bestens aufgehoben fühlten. Von der Viererkette: Grundlagenforschung, anwendungs- bzw. zielorientierte Forschung, Produktentwicklung und Produktion mussten also die drei letztgenannten oder alle vier Etappen von der Industrie geleistet werden, was – wie an den Beispielen vorhin gezeigt – auch meist so geschah. Leider hat sich die Industrie in den letzten beiden Jahrzehnten vor allem in Deutschland weitgehend aus der Grundlagenforschung und zu einem großen Teil auch aus der anwendungsnahen Forschung zurückgezogen. Die Forscher, die entgegen der manchmal immer noch zu hörenden Behauptung längst aus ihren Elfenbeintürmen herausgekommen sind, stehen nun in einer forschungsarmen Industrielandschaft und suchen häufig vergebens nach industriellen Partnern. Der Grund ist, dass die Manager großer Firmen unter der strengen Aufsicht der „Shareholder“, die weniger auf Nachhaltigkeit, denn auf schnelle Gewinnmitnahme bedacht sind, vor allem die Bilanz des laufenden Jahres zu optimieren suchen. Dabei wird eine zukunftsorientierte Forschung und Entwicklung primär als Kostenfaktor auf der Ausgabenseite wahrgenommen, und Kosten muss man ja bekanntlich minimieren. Umso wichtiger sind Initiativen wie die Allianz Bayern Innovativ, die sich auf die Fahnen geschrieben haben, ein Netzwerk zwischen Wirtschaft und Wissenschaft in relevanten und in Bayern vertretenen Kompetenzfeldern aufzubauen. Damit werden vor allem auch mittelständische Unternehmen und Firmenneugründungen angesprochen und mit dem vorhandenen wissenschaftlichen Potenzial, z.B. an Universitäten oder Forschungseinrichtungen vernetzt. Wenn sich die großen Industriefirmen aus Kostengründen und Kurzsichtigkeit aus der Forschungslandschaft zurückziehen und langsam zu Großbanken mutieren, muss die für uns alle so wichtige Innovationskraft vor allem von den mittleren und kleineren Unternehmen ausgehen, die dafür aber die wissenschaftliche Unterstützung der Forschungsinstitutionen benötigen.

Wie ist es nun mit der Grundlagenforschung in Deutschland bestellt? Unsere deutsche Forschungslandschaft ist vorbildlich gegliedert und international sehr sichtbar aufgestellt. Zwischen Hochschulen, Max-Planck-Instituten, Helmholtz-Zentren, Leibniz-Instituten und der Fraunhofer Gesellschaft gibt es eine gut nachvollziehbare und sehr effiziente Arbeitsteilung. Die öffentlichen Hände unterstützen diese Institutionen mit im Wesentlichen ausreichenden Geldmitteln, auch wenn zur Klage über zu wenig Mittel immer noch genügend Spielraum bleibt. Einzige Ausnahme sind die Hochschulen, die nach vielen Kürzungswellen und bei wachsenden Studierendenzahlen mittlerweile eklatant unterfinanziert und personell unterausgestattet sind. Ohne Drittmittelgeber müssten sie den Forschungsbankrott erklären und ihre Forschungen fast vollständig einstellen. Dabei sind die Hochschulen nach wie vor die wichtigsten Träger der Grundlagenforschung, auch wenn das in der öffentlichen Wahrnehmung oft unterschätzt wird. Etwa 2/3 der Forschungsleistung in Deutschland wird von Doktoranden erbracht, wobei deutlich mehr als die Hälfte den Hochschulen zuzurechnen sind. Gleichwohl wird die Forschungsleistung der Hochschulen in der öffentlichen Wahrnehmung meist unterschätzt, die an Max-Planck-Instituten dagegen häufig überschätzt. Dies liegt vor allem daran, dass die personellen und instrumentellen Ausstattungen dieser Institutionen sehr unterschiedlich sind und dass Max-Planck Institute über eine sehr professionelle Öffentlichkeitsarbeit verfügen. Wenn man dagegen die tatsächliche Leistung der einzelnen Forschungsgruppen analysiert, stellt man fest, dass ein Großteil der Hochschulgruppen den Max-Planck Gruppen ebenbürtig, ja manchmal sogar überlegen und auch auf internationaler Skala herausragend ist. Dazu muss man allerdings von den Grundrechenarten neben der Addition und Multiplikation auch die Division beherrschen, denn Leistung heißt bekanntlich, das Ergebnis am Aufwand zu messen, also den Output durch den Input zu teilen, bzw. die Ergebnisse durch die hineingesteckten Ressourcen zu dividieren. Dann allerdings merkt man, dass die Universitätsgruppen im Verhältnis zu ihrer personellen und finanziellen Ausstattung häufig exzellent aufgestellt sind.

Die institutionelle Aufteilung und die Finanzierung sind zwei ausschlaggebende Eckpfeiler der Grundlagenforschung. Der dritte Eckpfeiler ist der Nachwuchs, den ich abschließend behandeln möchte. Hier gibt es zwei wesentliche Gesichtspunkte, Qualität und Quantität. Bei der Qualität mache ich mir keine Sorgen. Das Ausbildungsniveau der deutschen Hochschulen ist in den natur- und ingenieurswissenschaftlichen Disziplinen auf internationalem Niveau hervorragend und weltweit hoch anerkannt. Deutsche Studierende und Nachwuchswissenschaftler sind selbst in den Hochburgen der angelsächsischen Forschung, den Spitzenuniversitäten und Forschungszentren in USA oder Europa, höchst angesehen und werden aufgrund interner Rankings und der Erfahrungen meist mit Handkuss genommen, ja sogar vereinzelt durch das Ausrollen „roter Teppiche“ abgeworben. Daran wird meines Erachtens auch die Umstellung auf Bachelor und Master nichts ändern, zumindest wenn wir uns hinreichend viel Mühe geben, die wichtigsten Komponenten unserer bisher so erfolgreichen Ausbildung in das formalere Bachelor/Mastersystem hinüber zu retten.

Was mir allerdings Sorgen bereitet, ist die Quantität, d.h. die Menge des Nachwuchses. Seit über zehn Jahren geht in den westlichen Industrienationen die Zahl der Hochschulanfänger und damit auch der Hochschulabsolventen in den harten Natur- und Ingenieurswissenschaften beständig zurück. Längst machen sich die Bildungspolitiker und die Industrie diesbezüglich ernsthafte Sorgen. In den USA wird dieses Problem durch eine forcierte Einwanderung von Studierenden aus osteuropäischen und asiatischen Ländern zu kompensieren versucht. Einzig die Physik in Deutschland, übrigens nur in Deutschland und nur die Physik, stemmt sich seit dem Jahr 2000 gegen diesen allgemeinen Trend; sie verzeichnet in den letzten 5 Jahren wieder eine signifikante Zunahme der Anfänger. Wenn man nach den Gründen fragt, fallen einem vor allem die Öffentlichkeitsarbeit und die Nachwuchsförderung der Deutschen Physikalischen Gesellschaft ein. Als Beleg für die Öffentlichkeitsarbeit möchte ich auf drei herausragende Unternehmungen hinweisen, nämlich 1) das „Jahr der Physik“ 2000 mit zahlreichen, zum Teil exzellent besuchten Veranstaltungen und einer sehr gelungenen Denkschrift, 2) das Einsteinjahr 2005 mit einer großen Tagung in Berlin und ebenfalls sehr vielen, höchst erfolgreichen Veranstaltungen, sowie 3) die „Highlights der Physik“, die seit 2001 alljährlich stattgefunden haben und an denen in der Regel 15-20000 Menschen teilnehmen. Über alle diese Ereignisse berichteten die Medien ausführlich. Auch die Nachwuchsförderung ist uns ein zentrales Anliegen. So unterstützt die DPG nicht nur Schülerwettbewerbe, wie „Jugend forscht“, sondern zeichnet seit dem Jahr 2000 auch bundesweit Schülerinnen und Schüler für herausragende Physikleistungen im Abitur aus.

Die Nachwuchsfrage wird uns in Zukunft allerdings noch größere Sorgen bereiten. Ausgerechnet das sonst eher vorbildliche Bundesland Bayern scheint sich nun dazu entschlossen zu haben, den natur- und ingenieurswissenschaftlichen Nachwuchs weiter auszudünnen und auf die Massenfächer umzulenken. Bayern beabsichtigt nämlich, den naturwissenschaftlichen Unterricht in der Oberstufe des 8jährigen Gymnasiums, des sog. G8, drastisch zu reduzieren und durch Hinzufügung der Informatik zu den Naturwissenschaften zusätzlich zu verdünnen. Statt wie bisher zwei (aus drei), soll jetzt nur noch eines von nunmehr vier naturwissenschaftlichen Fächern in der Oberstufe verpflichtend unterrichtet werden. Und auch der Stellenwert der Naturwissenschaften im Abitur und deren Einfluss auf die Abiturgesamtnote wird deutlich reduziert. Es ist offenkundig, dass damit naturwissenschaftlich-technisch begabte und interessierte Schüler massiv benachteiligt werden. Es ist ebenfalls offenkundig, dass die Reduzierung der Naturwissenschaften in den für die Berufswahl so prägenden letzten beiden Schuljahren die Zahl derer reduzieren wird, die sich für ein natur- oder ingenieurwissenschaftliches Studium entscheiden. Daran wird auch die Vermehrung von entsprechenden Stunden und die Einführung eines Faches Natur und Technik in den unteren Altersstufen nichts ändern. Ist das nicht eine sehr problematische Weichenstellung der bayerischen Staatsregierung, Herr Minister, auch wenn das nicht in ihren direkten Zuständigkeitsbereich fällt? Es wäre sehr wichtig, dass vor der endgültigen Endscheidung hierüber noch einmal intensiv nachgedacht wird.

Abschließend möchte ich noch ein Beispiel anführen, aus dem hervorgeht, wie wirkungsvoll konzertierte Anstrengungen der Politik sein können. Es handelt sich um „Doping“, allerdings mit einer nicht verpönten Spritze, der Finanzspritze. Das Beispiel betrifft die Großgeräteinitiative des Bundes, die vor etwa acht Jahren gestartet wurde. Damals wurden nach einer Umfrage des BMBF neun Großprojekte, die vornehmlich der Grundlagenforschung dienen, angestoßen, als Skizzen ausgearbeitet und anschließend beantragt. Nach einer intensiven Begutachtung wurde ein Teil der Projekte bewilligt, der andere Teil zurückgestellt. Diese Initiative hat höchst eindrucksvoll gezeigt, welch überaus positiven Einfluss die Politik auf die Entwicklung der Wissenschaft nehmen kann. Die Anfrage des BMBF hat nämlich enorme Kreativität und einen sehr beeindruckenden Motivationsschub in den betroffenen und angrenzenden Forschungsbereichen freigesetzt. Und sie hat vor allem viele Nachwuchswissenschaftler mit Begeisterung erfüllt und zu neuen Ideen stimuliert. Als positiver und keineswegs unwichtiger „Nebeneffekt“ wurde erreicht, dass die internationale Stellung Deutschlands in den betroffenen Forschungsgebieten zum Teil sogar bis zur Vorreiterrolle ausgebaut werden konnte.

Meine Damen und Herren, die Ergebnisse der Grundlagenforschung sind die Basis für Innovationen in Wissenschaft und Technik und sind für die menschliche Kultur und unsere Gesellschaft unverzichtbar. Sie sind das Fundament für die zukünftige Wirtschaftsentwicklung von der anwendungsorientierten Forschung bis hin zur Entwicklung innovativer Produkte für den Weltmarkt. Mich hat die Bewegung, die die Großgeräteinitiative in die deutsche Forschungslandschaft gebracht hat, beeindruckt. Sie hat mich in meiner Meinung bestärkt, dass man Motivation, Begeisterung und Kreativität durch geeignete Anreize stark beeinflussen kann. Bayern hat auf Landesebene in mehreren Initiativen - ich denke da etwa an die bayerische Forschungsstiftung oder das Elitenetzwerk Bayern - ähnliche Beispiele gegeben und ebenfalls eine Vorreiterrolle übernommen. Ich hoffe sehr, und wünsche es insbesondere dem Cluster Nanotechnologie, dass die Allianz Bayern Innovativ ebensolche Wirkungen erzielt.

 
© Deutsche Physikalische Gesellschaft | letzte Änderung 29.10.2009, 12:37 | Impressum | Datenschutz | Kontakt | Bearbeiten