Ein Gespräch mit Dr. Stephan Lingner, stellvertretender Direktor und Leiter des Bereiches Technology Assessment
Dr. Stephan Lingner, heute stellvertretender Direktor und Leiter des Bereiches Technology Assessment an der EA European Academy, berichtet über die Unternehmenshistorie, sein Verständnis von Technology Assessment, die Hackbarkeit von Industrie-4.0-Systemen und von ihm betreute Projekte.
Wie kamen Sie zur EA European Academy?
Ich bin 1996 mit Gründung der Akademie hierhergekommen. Ich arbeitete damals noch beim Deutschen Zentrum für Luft- und Raumfahrt (DLR) und kam aus einer Abteilung, die eigentlich ähnlich wie die Akademie zu Querschnittsthemen gearbeitet hat, allerdings mit Fokus auf die Systemanalyse von neuartigen Raumfahrtkonzepten und –missionen für wissenschaftliche und gesellschaftliche Zwecke. Nach Auflösung der damaligen Abteilung kam mir das Angebot der Akademie mit ihrem erweiterten interdisziplinären Forschungsansatz sehr recht. Einige meiner damaligen DLR-Kollegen haben mit mir seinerzeit den Nukleus der Akademie gebildet. Ich habe dann als Projektleiter mehrere Vorhaben zu Klimafragen, aber auch zum Boden- und Lärmschutz koordiniert. 2005 wurde ich dann Stellvertretender Direktor der EA.
Technology Assessment – Was stellt man sich darunter vor?
Technology Assessment steht als Sammelbezeichnung für unsere Aktivitäten und Projekte seit über 20 Jahren. Der synonyme Begriff Technikfolgenabschätzung ist gegenüber dem englischen Technology Assessment etwas unglücklich, weil es hier nicht nur um die Folgen geht. Folgen werden oft retrospektiv verstanden, das heißt: erst hat man eine Technik, dann erzeugt sie eventuell auch unerwünschte Folgen. Daraufhin kommt das Technology Assessment, kurz TA, und beurteilt diese Folgen. Das Problem ist, dass man das eigentlich schon prospektiv machen möchte, das heißt, man versucht heute das Kind zu retten, bevor es in den Brunnen fällt. Schon in der Designphase will man daher bereits in den Prozess der Forschung eingreifen und gibt zumindest beurteilend ein Statement ab oder weist auf etwaige Gefahren hin.
Es geht bei TA also um das Spannungsverhältnis zwischen neuen Technikentwicklungen, Gesellschaft und Umwelt. Wir betrachten dabei das Individuum und die Gesellschaft als Ganzes. Denn Technik hat immer auch Rückwirkungen auf das Alltagsleben. So etwa beim Thema Atomkraft – spätestens, wenn es zu Stör- und Unfällen kommt. Atomkraft ist daher eine Quelle der allgemeinen Besorgnis und damit auch ein Gegenstand der Technikfolgenabschätzung. Wenn man so will, nehmen Technikfolgenabschätzungen die Sorgen der Bürgerinnen und Bürger einerseits auf, andererseits kann es auch umgekehrt passieren, dass Technikfolgenabschätzung für neue Technikrisiken sensibilisiert, die uns oft nicht bewusst sind. Beispielsweise beim Thema der sozialen Medien fragen wir dann kritisch: Seid ihr euch eigentlich bewusst, dass ihr da viel Privates preisgebt?
Technologiefolgenabschätzung ist dabei keine Disziplin;- es ist eher ein Verfahren, ein Prozess, den man startet, um Technikwirkungen zu reflektieren, auch im positiven Sinn, wenn es um den Nutzen von Technik zum Beispiel für die Wirtschaft geht. Technik wird ja meistens von solchen Akteuren in die Gesellschaft gebracht, die sich davon einen Wettbewerbsvorteil versprechen. In der Gesellschaft wird diese technische Entwicklung dann aufgenommen und kann positive und/oder negative Wirkungen haben. Idealerweise setzt Technikfolgenabschätzung hier frühzeitig an, um die Entwicklung in gesellschaftsverträgliche Bahnen zu lenken. Dieser prospektive Ansatz hat aber auch den Nachteil, dass man über das, worüber man redet, noch gar nicht so genau Bescheid weiß, weil einem die Erfahrung oder empirischen Daten zur Einschätzung fehlen.
Ganz deutlich wird dies beim Thema synthetische Biologie, das wir vormals als Projekt betreuten. Da geht es um ganz neue gentechnische Verfahren, die sozusagen nicht mehr einzelne genverändernde Eingriffe beinhalten. Hier möchte man sich in die Lage versetzen, gezielt künstliches Leben zu erzeugen, also von den Grundbausteinen des Lebens her gesehen. Das ist sozusagen die Mission der synthetischen Biologie und da ist es jetzt noch sehr schwer für die Technikfolgenabschätzung zu sagen, wo man was regulieren oder fördern sollte, weil die Möglichkeiten und Auswirkungen der synthetischen Biologie noch gar nicht richtig verstanden sind. Man sollte hier vorsichtig tastend vorgehen und bei den Fortschritten der synthetischen Biologie immer die Möglichkeit haben, einzelne Schritte zu kontrollieren und gegebenenfalls zu revidieren.
Sie koordinieren aktuell ein Projekt zu Industrie 4.0. Worum handelt es sich bei diesem eher plakativen Begriff?
Industrie 4.0 ist ein weiterer Gegenstand des Technology Assessment. Hier geht es um die Zukunftsvision einer digitalisierten Ökonomie. Wir untersuchen dabei, welche Möglichkeiten und Risiken die Implementierung von Industrie 4.0 hat. Industrie 4.0 wird lokal und prototypisch schon verwirklicht. Noch bleibt es aber eine Vision, dass wir am Schluss ein Wirtschaftssystem haben, das weltweit vernetzt ist und in dem Kunden, Anbieter und „intelligente“ virtuelle Agenten miteinander kommunizieren. Alle Prozesse, die nicht notwendigerweise von Menschen übernommen werden müssen, werden dann durch Systeme mit selbstlernenden Algorithmen automatisch organisiert und gesteuert. Diese Prozesse laufen im Hintergrund. Sie wären einerseits bequem, indem sie menschliche Arbeitskraft effizient entlasten, würden sich aber auf der anderen Seite auch der Kontrolle entziehen und wären gegebenenfalls sogar angreifbar. In der global vernetzten Ausbaustufe kann man sich vorstellen, dass zum Beispiel bei einem Hacker-Angriff weit mehr passieren würde, als wenn nur ein einzelner Betrieb sabotiert wird, der dadurch für ein paar Wochen lahmgelegt ist. Bei einem global oder national vernetzten System könnte dies verheerende Folgen für die Gesellschaft haben. Wer mal Marc Elsbergs Thriller Blackout gelesen hat, ahnt, was passieren könnte, wenn große gesellschaftlich bedeutende Versorgungsstrukturen versagen. Das zivile Leben hört dann sehr schnell auf, zivil zu sein. Das sind dystopische Vorstellungen, die die Utopie des effizienteren Wirtschaftens durch Industrie 4.0 infrage stellen. Industrie 4.0 ist also mit erheblichen Sicherheitsfragen konfrontiert, die es zu lösen gilt. Unter Umständen wird es am Ende so kommen, dass Industrie 4.0 in ihrer großräumigen Ausbaustufe gar nicht zum Tragen kommen wird, wie die Proponenten sich das vorstellen. Und so wird Industrie 4.0 vielleicht bescheidener anfangen und auch enden, um in seinen inhärenten Risiken beherrschbar zu bleiben.
Was sind Schwerpunkte im 2018 angelaufenen Projekt Digitale Arbeitswelten in Forschung und Entwicklung?
Fragen gibt es unter anderem zur laufenden Kompetenzsicherung und -entwicklung von Forschenden im souveränen Umgang mit KI und BigData. In dem Projekt geht es um den Erhalt wissenschaftlicher Autonomie von Forschenden in der Kollaboration mit selbstlernenden Systemen und ein Vertrauen in die Validität von KI-unterstützer Forschung ohne Kenntnis zugrundeliegender Algorithmen.
Benutzer | Beiträge | Datum |
---|---|---|
Ralf Schneider | 24 | Vor 6 Tage |
Leonie Seng | 3 | Vor 2 Monate |
Marius Albiez | 28 | Vor 3 Monate |
Ansgar Skoda | 18 | Vor 7 Monate |
Michael Nentwich | 7 | Vor 9 Monate |
Christoph Kehl | 14 | Vor 10 Monate |
Tanja Sinozic-Martinez | 2 | Vor 11 Monate |
openTA Gastbeitrag | 4 | Vor 1 Jahr |
Tanja Sinozic | 13 | Vor 2 Jahre |
Dirk Hommrich | 9 | Vor 2 Jahre |