ScaDS Logo

CENTER FOR
SCALABLE DATA ANALYTICS
AND ARTIFICIAL INTELLIGENCE

Anwendungsbereich: Business Data

Der Bereich Business Data erforscht IT-Systeme zur Unterstützung unternehmensübergreifender Wertschöpfungssysteme und ihrer Transformation. Im Bereich der Big-Data-Forschung fokussieren wir uns auf die Bereiche der schnellen Datenauswertung in Echtzeit, sowie der Konzeption intelligenter  (smarter) Applikationen für datengetriebene Geschäftsprozesse.

Zur Realisierung der Ziele wird die Datenverarbeitung auf zwei Ebenen realisiert. Um Daten in Echtzeit verarbeiten zu können, werden Techniken des Complex Event Processings (CEP) genutzt. Dabei werden bereits vorverarbeitete Event-Daten mit Hintergrundinformationen aus Unternehmens- und Web-Datenquellen angereichert und fusioniert werden. Für die Masse der Daten, inklusive der für retrospektive Analysezwecke benötigenden Event-Daten, erfolgt eine Datenintegration in „Big Data Stores“, das für umfassende Auswertungen auf einer skalierbaren Plattform, z. B. mit Hadoop-Unterstützung, angesiedelt wird. Die Ergebnisse der Analysen aus dem Big Data Warehouse werden mit deren der Realdaten fusioniert und auf Ereignismuster hin überprüft.

Die dabei entwickelten Lösungen werden in einer Reihe von Use-Cases und Domänen evaluiert. Die drei wichtigsten Bereiche sind:

  • die Logistik, in der innovative Konzepte umgesetzt werden, die ein Höchstmaß an Datentransparenz und -qualität benötigen. Dabei werden nicht nur unternehmensinterne, sondern auch externe Datenquellen betrachtet, bspw. für die Implementierung von Echtzeitverkehrsinformationssystemen.
  • der Energiesektor, in dem durch intelligente Stromnetze effiziente und zuverlässige Energieversorgung angestrebt werden. Dazu müssen die Erzeuger und Verbraucher überwacht und geregelt werden. Durch die fluktuierende Stromerzeugung ist die alleinige Betrachtung von historischen Daten nicht mehr ausreichend. Vielmehr sind Live-Daten erforderlich, um Energieprodukte zu optimieren und Prognosen zu schärfen. Die dazu nötigen Anwendungen werden hierzu durch Forscher und Anwendungspartner entwickelt. 
  • das Gesundheitswesen, welches fortlaufend große Mengen medizinischer Daten erzeugt (u.a. Videosequenzen und Daten der Patientenüberwachung). Zusätzlich werden technische Geräte- und Nutzungsdaten gespeichert, z. B. Standort und Nutzungsparameter. Zu erwarten ist, dass die Datenmenge mit der zunehmenden Verfügbarkeit miniaturisierter Sensoren und bildgebender Verfahren rasant wachsen wird. Während die Patientenbehandlung bereits mit Datenanalyse-Verfahren unterstützt wird bestehen in der datenbasierten Optimierung logistischer Prozesse noch Verbesserungspotenziale. Diese sind u.a. Gegenstand der Betrachtung im Projekt.

 

Anwendungsbereich: Material- und Ingenieurswissenschaften

Im Rahmen von Forschungs- und Entwicklungsarbeiten entlang der Wertschöpfungskette von Werkstoff über Konstruktion, Simulation, Fertigung bis hin zum fertigen Bauteil und dessen Betrieb fallen in jedem Bereich eine Vielzahl strukturierter und unstrukturierter Daten an, siehe Abbildung 1. Dabei handelt es sich u. a. um Messwerte, Simulationsdaten, Konstruktionsdaten, Maschinen- und Fertigungsprotokolle sowie Sensordaten. Die einzelnen zu erfassenden Datensätze sind durch stark variierende Größen (KB bis TB), Heterogenität und ihre zeitliche Abfolge entlang der Wertschöpfungskette charakterisiert. Des Weiteren wird im Rahmen der Aktivitäten in hohem Umfang neues Wissen generiert, das derzeit zumeist in isolierter Form im Kontext der jeweiligen Forschungsaktivität vorliegt.
Auf Basis der dargestellten Ausgangssituation  soll die Entwicklung und Anwendung von Methoden der Big Data  entlang der Wertschöpfungskette im ScaDS vorangetrieben werden und das darin liegende Potenzial gehoben werden. Aus Sicht der Material- und Ingenieurwissenschaften leiten sich vor allem die folgenden Ziele ab:

  • besseres Werkstoffverständnis,
  • gesicherte Aussagen über sich einstellende Eigenschaften (z. B. Lebensdauer, Festigkeiten, Verformungen) sowie
  • Ableitung neuen Forschungsbedarfs.

 

Abbildung 1: Forschungs- und Entwicklungsthemen entlang der Wertschöpfungskette

 

Folgende Anwenderprojekte wurden bisher intensiv bearbeitet:

 

Multi-Skalen Visualisierung anhand des Demonstratorfahrzeugs FiF des SFB639

Für die kosten- und werkstoffeffiziente Auslegung von Leichtbaustrukturen wird zusammen mit der Professur für Computergraphik und Visualisierung, TU Dresden eine browserbasierte Software entwickelt, die erstmals eine Visualisierung von Simulationsdaten über mehrere Skalen – vom Filament, über den Roving bis hin zum Mehrschichtverbund – erlaubt, siehe Abbildung 2. Die Software ist plattformunabhängig, kann also auf verschiedenen Betriebssystemen ausgeführt und muss nicht installiert werden. So lassen Berechnungsergebnisse schnell präsentieren. Weitere Informationen zu dem Thema finden Sie in diesem Blogbeitrag. Einen Kurzfilm zur Software finden Sie hier: Multiskalen-Visualisierung – Der Schlüssel zu einem besseren Werkstoffverständnis

Abbildung 2: Multi-Skalen-Ansatz: Simulation und Visualisierung des Materialverhaltens von der Faser bis zum Fahrzeug

 

 

Einsatz von FE-Programmen auf den HPC-Ressourcen Taurus and Venus

Im Projekt wurden mit dem ZIH, TU Dresden anwenderfreundliche Starterskripte für den Einsatz der FE-Programme Abaqus und LS-Dyna auf HPC-Ressourcen mit SLURM-Umgebung erarbeitet. Die Skripte bedeuten für den Nutzer eine erhebliche Aufwandsreduktion. Der Nutzer muss lediglich grundlegende Parameter wie Anzahl der zu verwendenden Knoten und CPUs angeben. Die Rechenumgebung auf der HPC-Ressource wird automatisch definiert. In weiterführenden Arbeiten soll die Parallelisierung weiter erhöht werden sowie eine grafische Benutzeroberfläche erstellt werden.

Die Arbeiten werden durch das Institut für Leichtbau und Kunststofftechnik, Prof. Gude, TU Dresden, durchgeführt.

 

Anwendungsbereich: Lebenswissenschaften

Die biomedizinische Forschung ist ein sehr dynamisch wachsender Wissenschaftsbereich, der von einer massiven Nutzung neuer, extrem datenintensiver Technologien gekennzeichnet ist. An den Partnerinstitutionen des geplanten Kompetenzzentrums nehmen insbesondere die beiden Schwerpunkte molekulare Analysen innerhalb der sogenannten omics-Technologien sowie Bilddaten-basierte Verfahren eine besondere Stellung ein: Die Anwender stehen jeweils vor der Herausforderung immer weiter wachsender Datenvolumina. Bereits jetzt ist die Transmission dieser Daten über die vorhandenen Datennetze nicht mehr in jedem Falle effektiv möglich, sodass es notwendig wird, die Vorverarbeitung der Daten bevorzugt dezentral zu organisieren und effiziente Methoden zur Datenreduktion direkt an den Datenquellen zu etablieren. Eine solche Dezentralisierung erschwert allerdings eine integrative Analyse, wie sie zur Wissensextraktion unabdingbar ist.

Biologische Systeme im ganzen verstehen
 
In diesem Anwendungsbereich werden Bilder biologischer Systeme ausgewertet und komplexe semantische Information aus diesen Daten extrahiert. Die Bilddaten werden dabei mit verschiedenen, zum Teil selbst entwickelten Mikroskopen aufgenommen. Die Forscher glauben, dass diese Mikroskope und die damit produzierten Daten das Potential haben mehr über die im Genom kodierten Einheiten zu enthüllen als jegliche alternative Herangehensweise.
Die Vision ist es ein Fenster zu zellulären Entwicklungsprozessen zu öffnen. Jeder Zellkern und/oder jede Zelle in sich entwickelnden Geweben und Organismen soll einzeln verfolgt werden können und, sofern gewünscht, auch die Menge markierter Proteine über die Zeit quantifiziert werden können. Schon alleine aufgrund der dabei anfallenden Datenmengen ist eine entsprechende parallele Verarbeitung und Datenhaltung notwendig.
 
 

Anwendungsbereich: Umwelt- und Verkehrswissenschaften

Analysen von Mensch-Umwelt-Systemen sind durch eine räumlich hoch aufgelöste und zeitlich dynamische Erfassung und Modellierung gekennzeichnet. Das Spektrum reicht von der Simulation regionaler Klimasysteme mit anschließenden Impakt-Analysen mittels gekoppelter Modelle bis zur Sensor-basierten Steuerung von Fahrzeugen mit Telemetrie- und Videodaten. Raum- und Zeitreihenanalysen, prospektive Ensemble-Rechnungen und Echtzeit-Simulationen sind Beispiele für außer-ordentlich daten- und rechenintensive Anwendungen.
Zurzeit kommen für diese Anwendungen oft gekoppelte Modelle zum Einsatz, deren Daten überwiegend für jeden Einzelfall mit individuellen Routinen und spezifischen Datenhaltungsvarianten aufbereitet und verwaltet werden. Hierdurch ergeben sich einerseits erhebliche Grenzen für die Kopplung von Modellen und die Einbindung von gemessenen und berechneten Daten, weshalb die Repräsentation der realen Komplexität und Dynamik erheblich eingeschränkt ist. Andererseits sind die Rechenabläufe durch die Insellösungen und den Aufbereitungsaufwand äußerst zeitintensiv, was die Abbildung von Unsicherheiten und der Wirkungen alternativer Systeminterventionen eng begrenzt.
Parallel führt die zunehmende Vernetzung verschiedener Verkehrsträger im Personenverkehr zunehmend zur Implementierung lokaler und regionaler Datendrehscheiben und Markplätzen zur datenintensiven und zeitkritischen Verknüpfung von Verkehrsinformationen für Auskunfts- und Informationsdienste. In der Verkehrstelematik werden Fahrzeuge mehr und mehr zu Datensendern und -empfängern von Umfeldsignalen (z. B. GPS, WLAN, GSM, DAB) als Kommunikationseinheit mit anderen Fahrzeugen und Infrastrukturen (Car-2-X-Kommunikation). Die Anforderungen an entsprechende Softwaresysteme zur Datenauswertung und -reduktion steigen somit weiter an. Für die Implementierung und das Testen der methodenwissenschaftlichen Entwicklungen des Kompetenzzentrums ScaDS Dresden-Leipzig werden insbesondere die folgenden drei Teilthemen fokussiert, wobei Querbezüge explizit einbezogen werden:

  • Klimamodellierung
  • Impakt-Modellierung und Entscheidungsunterstützung
  • Verkehrssteuerung

Beteiligte Arbeitsgruppen:

  • Impakt-Modellierung und Entscheidungsunterstützung (Leibniz-Institut für ökologische Raumentwicklung, Prof. J. Schanze, Professur für Umweltentwicklung und Risikomanagement)
  • Klimamodellierung (Prof. C. Bernhofer, Professur für Meteorologie, TUD)

 

Anwendungsbereich: Digital Humanities

Eine genauere Übersicht über den Bestand an Daten und Tools inklusive ready-to-use Demos befindet sich auf der Projektwebseite cts.informatik.uni-leipzig.de.

Durch das exponentielle Wachstum der internetbasierten Kommunikation stehen den Geistes- und Sozialwissenschaften umfangreiche Datenmengen für datengetriebene Analysen zur Verfügung. Großflächige Digitalisierungsprogramme und die Freigabe amtlicher Daten haben zudem den Abruf historischer und statistischer Quellen ermöglicht. Die besondere Herausforderung im Feld der Digital Humanities besteht in der Verknüpfung und im Wechselspiel quantitativer, datengetriebener Analysen mit qualitativen Deutungen, weshalb Fragen der Wissensextraktion eine besondere Bedeutung zukommen. Für die Verarbeitung sehr hoher Datenvolumina, komplexer Datenstrukturen und schneller Veränderungen werden Big Data Methoden benötigt, wie sie in anderen Fachdisziplinen bereits stärker etabliert sind. Gleichzeitig können Geistes- und Sozialwissenschaftler mit ihrem Methodenrepertoire einen Beitrag zur kritischen Reflexion des Umgangs mit Big Data in der Wissenschaft und in der Wirtschaft leisten.
Im Bereich Digital Humanities führt die traditionelle Trennung von Ressourcen und der sie beschreibenden Metadaten zunehmend zu einer Auftrennung der Ressourcen selbst in ihre einzelnen Bestandteile. Bei Textsammlungen betrifft dies z. B. die eigentlichen Rohtexte, verschiedenste Annotationen sowie deren Metadaten. Konkret setzt dies eine mehrschichtige Architektur voraus: Eine Speicherlösung, die die Volltexte sowie Annotationen vorhält, diverse Indizes (u. a. auch auf Basis von Annotationen und Metadaten) und geeignete Schnittstellen für die Bereitstellung der Daten unter Nutzung vorhandener Indizes. Für die Aufbereitung und Annotation der Daten ist zu beachten, dass es diverse Werkzeuge gibt, die einem vergleichbaren Zweck dienen (wie Crawling-, Cleaning-, Segmentierungs-, Tagging oder Parsingverfahren), diese funktionieren aber jeweils nur für bestimmte Domänen effizient. Die Qualität genutzter Verarbeitungsketten hängt zudem direkt von den genutzten Vorverarbeitungsschritten und der geeigneten Parametrisierung der einzelnen Verfahren ab. Die daraus resultierende hohe Zahl verschiedener, generierter Versionen einer Ressource auf der Basis der gleichen Rohdaten führt im Rahmen der systematischen Evaluierung sowie effizienten Bereitstellung dieser Daten zu einem deutlich erhöhten Bedarf an Speicherplatz und Rechenkapazität.

Die Arbeiten werden durch die Professur Automatische Sprachverarbeitung (ASV) der Universität Leipzig durchgeführt.

 

Canonical Text Service

CTS Text Miner

 

Lineage Tracking während der Entwicklung von Lebenden Organismen

Fluoreszenz-Mikroskopie ist für die Grundlagenforschung im Bereich der Biomedizin unverzichtbar geworden. Diese Technik kann die Position von fluoreszierenden Zellbausteinen in biologischen Geweben und Organismen sichtbar machen. In lebenden Proben können, über viele Stunden hinweg, dynamische Prozesse aufgezeichnet werden, so dass die Forscher zum Beispiel untersuchen können, wie Zellen während der Embryonalentwicklung Gewebe und Organe formen.

Um ein mechanistisches Verständnis von Zellulären Prozessen zu gewinnen, welche mit Hilfe der Fluoreszenz-Mikroskopie aufgezeichnet werden, müssen alle Zellbewegungen und Zellteilungen automatisch erkannt und quantifiziert werden [1]. Technisch ist dies leider nicht trivial, und eine Vielzahl von Zellverfolgungsansätzen (Tracking Ansätzen) wurden über die Jahre vorgeschlagen. Die meisten verfolgen dabei eine Strategie in der man zwei Phasen unterscheiden kann: Eine Zellsegmentierungsphase, in der alle Objekte erkannt werden sollen, gefolgt von einer ‚Tracking‘-Phase, in der diese Zellsegmentierungen über die Zeit zu Zelltrajektorien verbunden werden. In der Praxis stellen wir oft fest, das Tracking Fehler durch fehlende oder falsche Segmentierungen entstehen. Wir schlagen daher vor, unsere eigenen Arbeiten im Bereich der simultanen Zellsegmentierung und Zellverfolgung weiterzuverfolgen, da dieser Ansatz viele existierende Probleme geschickt umgehen kann.

Zusätzlich arbeiten wir vermehrt an sehr nützlichen, inhaltssensitiven Bildrestaurierungsmethoden [2] welche die Stärken von tiefen Neuronalen Netzen ausnutzen und eine deutlich verbesserte Auswertung aufgezeichneten Bilddaten zu ermöglicht (Abbildung 1).

Alle angesprochenen Themen benötigen, auf die eine oder andere Art, eine große Menge Rechenleistung – dies motiviert unsere Beteiligung im Verbundprojekt ScaDS2.

 

Abbildung 1: Verrauschte Bilddaten eines Fluoreszenz-Mikroskops (oben), welches Zellkerne des Flachwurms Schmidtea mediterranea zeigt. Der untere Teil dieser Abbildung zeigt die Bilddaten nachdem diese mit CARE aufbereitet wurden. © Martin Weigert, Tobias Boothe, Deborah Schmidt, und Florian Jug

Publikationen:
[1] Vladimir Ulman et al.: An objective comparison of cell-tracking algorithms, Nature Methods, 2018
[2] Martin Weigert et al.: Content-aware image restoration: pushing the limits of fluorescence microscopy, Nature Methods, 2018

 

Forschungstehemen des Instituts für Leichtbau- und Kunststofftechnik (ILK)

Im Rahmen von Forschungs- und Entwicklungsarbeiten entlang der Wertschöpfungskette von Werkstoff über Konstruktion, Simulation, Fertigung bis hin zum fertigen Bauteil und dessen Betrieb fallen in jedem Bereich eine Vielzahl strukturierter und unstrukturierter Daten an, siehe Abbildung 1. Dabei handelt es sich u. a. um Messwerte, Simulationsdaten, Konstruktionsdaten, Maschinen- und Fertigungsprotokolle sowie Sensordaten. Die einzelnen zu erfassenden Datensätze sind durch stark variierende Größen (KB bis TB), Heterogenität und ihre zeitliche Abfolge entlang der Wertschöpfungskette charakterisiert. In Fortführung der Bestrebungen in der ersten Phase von ScaDS soll die Entwicklung und Anwendung von Big Data Methoden entlang der Wertschöpfungskette in der zweiten Phase weiter vorangetrieben werden. Aus Sicht der Material- und Ingenieurwissenschaften leiten sich vor allem die folgenden Ziele ab:

  • besseres Werkstoffverständnis,
  • gesicherte Aussagen über sich einstellende Eigenschaften (z. B. Lebensdauer, Festigkeiten, Verformungen) sowie
  • Ableitung neuen Forschungsbedarfs.

 


Abbildung 1 Forschungs- und Entwicklungsthemen entlang der Wertschöpfungskette

 

In der zweiten Phase von ScaDS werden daher 3 Teilprojekte in Kooperation mit den Methodenwissenschaftlern gestartet:

3D-Dehnungs- und Verformungsanalyse mittels „In situ“ CT-Daten

Die experimentelle 3D-Beanspruchungsanalyse im Werkstoffinneren von Faserverbundwerkstoffen mittels Röntgen-Computer-Tomographie (CT), im Speziellen die Möglichkeiten der „in situ“ CT, eröffnet dem Konstruktions- und Berechnungsingenieur als auch Werkstoffwissenschaftler einen bisher nicht möglichen Einblick in Wirk- und Interaktionszusammenhänge zwischen Faser und Matrix, die oftmals als versagensauslösend einzuschätzen sind. Das dabei anfallende große Datenvolumen der „in situ“ CT-Daten erfordert im Besonderen den Einbezug modernster Big-Data-Methoden zur Findung effizienter Lösungen zur Datenvisualisierung. Im Projekt soll ein wertvoller Beitrag zur Erweiterung des Werkstoffverständnisses durch Anwendung von Methoden der Visuellen Analyse in Zusammenarbeit mit dem Institut für Informatik, Bild- und Signalverarbeitung, Uni Leipzig geleistet werden. Anvisiert wird eine schwellwertabhängige Visualisierung über verschiedenen Laststufen, eine automatische „Hotspot“-Findung sowie eine 3D-Schadensanalyse durch „sichtbar machen“ der FKV-Versagenskriterien auf Basis der 3D-Dehnungs- und Verformungsanalyse. Darauf aufbauend wird eine verallgemeinerte Servicedienstleistung mit dem ScaDS-Service Center entwickelt, welche es erlaubt mit unterschiedlichen CT-Systemen generierte CT-Daten-Sequenzen einzulesen, aufzubereiten und auszuwerten, beispielsweise mittels eines webbasierten Services. Die Erweiterung des Anwendungsbereichs durch angepasste Methoden auf weitere Werkstoffklassen (etwa Schaumstoffe oder organische Werkstoffe) wird abgeschätzt.

 

Browserbasierte Visualisierung von HPC-(Zwischen-)Ergebnissen

Im Entwicklungsprozess von faserverstärkten Kunststoffverbunden (FKV) etabliert sich zunehmend die Simulationsmethode, nicht nur die Belastungsszenarien am virtuellen fertigen Bauteil durchzuführen, sondern den Fertigungsprozess simulativ voranzustellen. Daraus lassen sich Erkenntnisse zur optimalen Werkzeug- und Halbzeuggestaltung sowie zur Prozessführung ableiten. Die erweiterte Simulationsmethodik geht jedoch einher mit einer detaillierten Modellierung auf Mesoebene und rechentechnisch aufwendigen Simulationsansätzen. In der ersten Phase des ScaDS wurden derartige Modelle, bspw. die Abbildung der Einformung von Fasern in einer intrinsischen Struktur auf Hochleistungsrechner des ZIH berechnet. Daneben wurde mit der Professur für Computergraphik und Visualisierung, TU Dresden eine browserbasierte, skalenübergreifende Visualisierungssoftware von FE-Simulationsergebnissen erfolgreich umgesetzt. Im nächsten Schritt sollen die Ergebnisse der ersten Phase von ScaDS miteinander verknüpft werden. In Zusammenarbeit mit der Professur für Computergraphik und Visualisierung, TU Dresden soll eine effiziente visuelle Analyse der HPC-Ergebnisdaten auf gängigen PCs über einen Browser erzielt werden. Die angestrebte Visualisierungssoftware soll unter Anwendung der neuesten Methoden der visuellen Analyse den Anwender bei der Auswertung der Ergebnisdaten unterstützen, durch die Auswertung führen sowie die Identifikation von „HotSpots“, d.h. Bereichen in denen signifikante Beanspruchungen bzw. Deformationen ermöglichen.

Abbildung 2: Prozesssimulation einer intrinsischen Struktur auf der Mesoeben

Textbasierte Wissensextraktion aus wissenschaftlichen Quellen am ILK
An Forschungseinrichtungen liegen in Folge jahrelanger Forschungs- und Entwicklungsarbeiten aber auch im Kontext der Lehrtätigkeit zahlreiche wissenschaftliche Schriftstücke in Form von Anträgen, (Projekt-)Berichten, (Fach-)Artikeln sowie Dissertationen und studentischen Arbeiten vor, wobei auf Grund der Historie des Institutes eine Vielzahl insbesondere ältere Schriftstücke nur in „Papierform“ vorliegt. Typischerweise beinhalten diese Schriftstücke den jeweiligen Stand der Technik und Wissenschaft, die im speziellen Vorhaben eingesetzten Methoden sowie die erzielten Ergebnisse. Damit bilden die Arbeiten den jeweiligen Wissensstand des ILK nahezu vollständig ab. Das Ziel der Zusammenarbeit des ILK mit dem Institut für Informatik, Automatische Sprachverarbeitung, Uni Leipzig ist die Entwicklung und Anwendung einer automatisierten Methode zum Sammeln, Extrahieren und Kategorisieren des Wissens aus elektronischen (.pdf, .doc) und nicht-elektronischen (Bücher, Artikel) Textquellen. Als Vorarbeit für diese „Wissensextraktion und -kategorisierung“ wird derzeit am ILK eine entsprechende Literaturdatenbank aufgebaut, in die sukzessive auch die in reiner Papierform vorliegenden Schriftstücke eingepflegt werden sollen. Im Weiteren stellen die Arbeiten den Ausgangspunkt dar für einen Abgleich mit weiteren im Netz zur Verfügung stehenden Daten zur Ableitung neuen Forschungsbedarfs bzw. zur a priori Bewertung der Erfolgsaussichten neuer Forschungsansätze. Zudem können über eine semantische Bewertung der Funde (z. B. nach Relevanz, Sinnhaftigkeit, Forschungsaktivitäten) dann weitere erfolgversprechende Forschungsansätze identifiziert und zielgerichtet verfolgt werden – auch über die Grenzen des eigenen Forschungsfeldes hinaus.


Die Arbeiten für den Anwendungsbereich Material- und Ingenieurwissenschaften werden federführend durch das Institut für Leichtbau und Kunststofftechnik, Prof. Dr.-Ing. habil. Gude, TU Dresden, durchgeführt.

 

 

Die alten Anwendungsbereiche aus Phase 1 finden sich hier.