ScaDS Logo

CENTER FOR
SCALABLE DATA ANALYTICS
AND ARTIFICIAL INTELLIGENCE

ScaDS.AI Ringvorlesung für KI und Big Data (SS2020)

Lehrveranstaltung an der Universität Leipzig im Master-Studiengang DataScience

Modul 10-INF-DS301 "Aktuelle Trends in Data Science" (5 LP)

Koordinator: Prof. Dr. E. Rahm (Uni Leipzig)

Ziel der Ringvorlesung ist den Teilnehmern einen Überblick über aktuelle Anforderungen und Lösungen zu Methoden, Technologien und Anwendungen von Künstlicher Intelligenz und Big Data  zu geben. Die Schwerpunkte liegen dabei in den im Data Science Zentrum ScaDS.AI (Center for Scalable Data Analytics and Artificial Intelligence) Dresden/Leipzig bearbeiteten Gebieten. Referenten sind u.a. die an ScaDS.AI Dresden/Leipzig aktiv beteiligten  Principal Investigators. 

Die Vorlesung wird im Rahmen des Moduls "Aktuelle Trends in Data Science" (5 LP) des neuen Studiengangs Data Science angeboten. Vortragssprachen sind Deutsch und Englisch. Die erfolgreiche Absolvierung des Moduls erfordert die aktive Teilnahme an allen Vorlesungen  sowie die erfolgreiche Lösung  einer praktischen Aufgabe, die in 2er Teams gelöst werden kann. Die Ergebnisse der praktischen Aufgaben sollen in der letzten Vorlesung präsentiert werden.

Die Teilnahme an der Ringvorlesung steht darüber hinaus auch anderen Studierenden, Forschern und Interessenten offen.

Die Vorlesung findet mittwochs, 15:15 Uhr im HS19 statt, beginnend am 22.4.2020.
An diesem Tag werden wir im Anschluss auch die praktischen Themen vergeben.

Terminplan

Vorlesung 1: 22. April 2020, 15:15 Uhr,  HS19

  • Prof. Dr. Erhard Rahm:
    - Einführung in Ringvorlesung/Modul sowie von ScaDS.AI
    - ScaDS.AI-Themen der Professur Datenbanken:
      Datenintegration für Wissensgraphen, Analyse dynamischer Graphen, Privacy-bewahrende Datenanalyse  
  • ab 17:15 Vorstellung/Vergabe der praktischen Aufgaben (Raum tba)

Vorlesung 2: 29. April, 15:15, HS19

  • Prof. Dr. Stephanie Schiedermair: Datenschutz und Diskriminierungsverbote als Herausforderungen für KI

Vorlesung 3: 06. Mai, 15:15, HS19

Vorlesung 4: 13. Mai, 15:15, HS19

Vorlesung 5: 20. Mai, 15:15, HS19 

  • Prof. Dr. Norbert Siegmund: Validity of Machine Learning / AI for Software Engineering / Deep Learning for Code Generation

Vorlesung 6: 27. Mai, 15:15, HS19 

  • Dr. Stefan Franke, Prof. Dr. T. Neumuth: Möglichkeiten und Grenzen der KI in medizinischer Forschung und klinischem Alltag

Vorlesung 7: 03. Juni, 15:15,  HS19 

  • Dr. Ringo Baumann, Prof. Dr. Gerhard Brewka: Computational Models of Argumentation

Vorlesung 8: 10. Juni, 15:15,  HS19

  • Prof. Dr. Peter Stadler: tbd

Vorlesung 9: 17. Juni, 15:15, HS19 

  • Prof. Dr. Nihat Ay:  Generalisation in Statistical Learning

Vorlesung 10: 24. Juni, 15:15,  HS19

  • J.Prof. Dr. Martin Potthast: tbd

Vorlesung 11: 1. Juli, 15:15,  HS19

Vorlesung 12: 8. Juli, 15:15,  HS19

  • Vorstellung Ergebnisse der praktischen Übungen

 

Liste praktischer Arbeiten  (tbd)

  • Thema 1
  • Thema 2
  • ..

 

 

Abstracts

Vorlesung 3: Dr. Sebastian Hellmann: Rapid Prototyping of Large Knowledge Graphs and their Applications such as AI

Abstract: Leaning on the rapid-application development (RAD) methodology from software development, we will elaborate a data engineering methodology that is adaptive, spiral and agile and enables to blueprint, configure and then built customized, large knowledge graphs as well as evaluate their data quality (fitness for use).
During the first part we focus on the DBpedia Databus, a digital factory platform, that unifies metadata, provenance and access for data files in a distributed network as an extension to the Web of Linked Data. The Databus platform supports the methodology via syntactical transformations and aggregation of data, including an Application Replication and Deployment Layer, i.e. a Maven for Data.
In the second part, we introduce the DBpedia Knowledge Library (ontologies, mappings, links), a component on top of the Databus to implement ID Management, formal-logical transformations as well as test-driven data engineering (SHACL) in order to fuse (FlexiFusion) aggregated data consistently while keeping provenance.
The third part is concerned with application development and is the point of truth in rapid prototyping. While part one and two are pre-processing the data, the application is the consumer that "uses" the data and therefore is an important step in which data quality becomes palpable and tractable (i.e. the application works or not). Further data requirements can be derived for iteration and adaption of the next round in the spiral of development.
We see our work in direct relation to AI applications as data pre-processing is a valuable optimization angle to counteract the "Garbage in, garbage out" challenge.