Logo des Digitalisierungskollegs "Disruption in Creativity"

Projekte Showcase

Crowdsourced Visuals

Eine Installation, die Partizipation und Interaktion innerhalb der Techno-Kultur erforscht.

Video abspielen

„Crowdsourced Visuals“ vereint auf einzigartige Weise ­Design, Technologie, elektronische Musik und gesellschaftliche Fragestellungen in Zeiten der Digitalisierung.

Eine neuromorphe ­Kamera erfasst während einem DJ-Set anonym die Bewegungen einer tanzenden Techno-Crowd und des DJs und verwandelt diese Eindrücke in dynamische Live-Visuals.

Der besondere Aspekt dabei ist die Wahrung der ­Anonymität. Durch die Technologie der Kamera werden Bewegungen in die Performance einbezogen, ohne individuelle Identitäten zu enthüllen. Dieser konzeptionelle Ansatz ermöglicht es, das Thema „Identität“ auf abstrakte Weise in den Visuals zu erforschen.

Ziel ist die Schaffung eines interaktiven Erlebnisses, das die Grenzen zwischen Publikum und Künstler verwischt. Es ­fördert die Partizipation in der elektronischen Musikszene, indem es jeden Besucher zum anonymen Mitgestalter der visuellen Darstellung macht und gleichzeitig tiefgreifende Fragen nach Identität und Gemeinschaft stellt.

Projektteam:

  • Anna Karolczak (Interaction Design)
  • Long Huy Dao (CGI/Motion Design)
  • Alexander Sura (CGI/Motion Design)
  • Max Fuhrmann (Informatik)

Coaches:

  • Fabian Bitter (TH Nürnberg)
  • Simon Scharf (HfM)

Lehrende:

  • Prof. Dr. Cristian Axenie (Informatik)
  • Prof. Moritz Schwind (Design)

Sketchy Sounds

Von Handzeichnungen zu Harmonien: Die Magie von KI-generierten grafischen Partituren.

„Sketchy Sounds“ präsentiert ein KI-Tool, das Musik, Zeichnung und neue Technologie verbindet.

Durch die Umwandlung von Handzeichnungen in musikalische Partituren in Echtzeit, überbrückt es die kreative Kluft zwischen visueller Kunst und Musik.

Menschengruppen haben die Möglichkeit, ihre Zeichnungen in ein musikalisches Format
zu verwandeln und so ihre Kreativität in einer neuen, unerwarteten Form auszudrücken.

Die so entstehenden musikalischen Werke gewinnen durch Live-Performances und Projektionen an Leben und schaffen eine Symbiose aus Bild und Ton. Diese Ausstellung bietet nicht nur ein Fenster in die Welt der KI-gesteuerten Musik, sondern lädt auch dazu ein, die eigene künstlerische Ader auf unkonventionelle Weise zu erkunden.

Projektteam:

  • Laura Maier (Interaction Design)
  • Philipp Kremling (Informatik)
  • Fiona Zimmermann (Musik)
  • Johannes (Informatik)

Coaches:

  • Fabian Bitter (TH Nürnberg)
  • Simon Scharf (HfM)

Lehrende:

  • Prof. Dr. Anna Kruspe (Informatik)
  • Max Hässlein (Design)

CoverCraft

Entwicklung von KI-Pipelines zur automatisierten Generierung von Albumcovers.

Dieses Projekt erforscht Ansätze für die Gestaltung von Albumcovern, die auf künstlicher Intelligenz basiert. Durch die automatisierte Analyse von Musikstücken, einschließlich Sentimentanalyse, entfällt das manuelle Prompt Engineering. Die Technologie erfasst die Stimmung und Themen der Musik, um visuell ansprechende und thematisch passende Albumcover zu erstellen.

  • Web-App für Smartphones: Eine benutzerfreundliche Anwendung mit ausgewählten Features, optimiert für die schnelle und einfache Erstellung von Albumcovern unterwegs.

  • Desktop Web-App: Eine umfangreichere Anwendung für detaillierte Anpassungen und Interaktionen, ideal für Nutzer, die tiefer in den Gestaltungsprozess eintauchen möchten.

Projektteam:

  • Julian Beekmann (Medieninformatik)
  • Paul Kreismann (CGI/Interaction Design)
  • Jan (Informatik)
  • Max (Informatik)
  • zwei weitere Designstudenten

Coaches:

  • Fabian Bitter (TH Nürnberg)

Lehrende:

  • Prof. Moritz Schwind (Design)
  • Prof. Dr. Anna Kruspe (Informatik)

Scapemaster

Maps, Moods, Music… Magic!: Neue Dimensionen für Pen-&-Paper-Rollenspiele
durch KI-Enhancements

Durch KI-gestützte Tools erweitert das Projekt Scapemaster analoge Pen & Paper-Rollenspiele, bei denen Spieler Charaktere in einer erzählten Welt darstellen und Abenteuer erleben.

Die Tools unterstützen Spielleiter*innen durch einen Mapgenerator für Karten (die auch auf eigenen Skizzen basieren können), einen Moodbildgenerator für die richtige Atmosphäre und einen Musikgenerator (bzw. eine Auswahl an fertigen Stücken von TableTopAudio) für passende, musikalische Untermalung, um das Spielerlebnis immersiv zu gestalten.

Durch die Verknüpfung von traditionellen Rollenspielen mit immersiven Möglichkeiten von Videospielen und der Technologie generativer KI fördert Scapemaster die soziale Interaktion und das persönliche Treffen, indem es die Realität mit digitalen Erlebnissen bereichert.

Projektteam:

  • Thuy An Nguyen (Interaction Design)
  • Maite Oswald (Interaction Design)
  • Artem Sokolov (Interaction Design)
  • Britney ??? (Informatik)
  • Adrian ?? (Informatik)
  • Jan ??? (Informatik)
  • Friedrich Lober  (Musik)

 

Coaches:

  • Fabian Bitter (TH Nürnberg)

 

Lehrende:

  • Max Häßlein (Interaction Design)
  • Christian Axenie ??? (Informatik)
  • Korbinian Riedhammer ??? (Informatik)

Let's Sign

Hands-On Signs: Spielend Kommunikationsgrenzen überwinden

„Let’s Sign“ ist ein interaktives Spiel, das darauf abzielt, das Erlernen der Gebärdensprache zu fördern und so barrierefreie Kommunikation zu unterstützen.

Spieler*innen versuchen, die Gebärden zu einem Songtext eines Liedes nachzuahmen. Die Leistungsbeurteilung erfolgt durch eine Kamera, die die Bewegungen des Spielers erfasst und mit den vorgegebenen Gebärden vergleicht.

Das Projekt hebt die Bedeutung des Zugangs zur Gebärdensprache als wesentlichen Bestandteil inklusiver Kommunikation hervor und fördert das Bewusstsein und die Fähigkeiten in Gebärdensprache für Hörende.

Projektteam:

  • Daria Leleko (Interaction Design)
  • Isabell Sukkau (Interaction Design)
  • Sofia Scheib (Interaction Design)
  • Ronja Watzl (Informatik)
  • Rica Schach (Informatik)

 

Coaches:

  • Fabian Bitter (TH Nürnberg)

 

Lehrende:

  • Max Häßlein (Interaction Design)
  • Christian Axenie ??? (Informatik)
  • Korbinian Riedhammer ??? (Informatik)

Artificial Illustrations

Grenzen überschreiten: Generative KI im Dienst der Wissenschaft

„Artificial Illustrations“ entwickelt eine ­KI-gestützte Anwendung zur Erstellung von Illustrationen für wissenschaftliche Texte, die auf umfangreichen Textanalysen statt einfachen Prompts basiert. Ziel ist der Einsatz in wissenschaftlichen Publikationen.

Das Projekt verbessert die Wissenskommunikation durch Visualisierung und adressiert Budgetbeschränkungen. Es testet die Grenzen generativer KI bei der Erstellung komplexer, wissensvermittelnder Illustrationen.

Projektteam:

  • Sara Lang (Interaction Design)
  • Joshua ??? (Informatik)
  • Andreas ??? (Medieninformatik)

 

Coaches:

  • Fabian Bitter (TH Nürnberg)

 

Lehrende:

  • Max Häßlein (Interaction Design)
  • Christian Axenie ??? (Informatik)
  • Korbinian Riedhammer ??? (Informatik)

Hidden Harmonics

Die verborgene Welt der Obertöne

„Hidden Harmonics“ lässt die Obertöne von Cellomusik sichtbar werden.

Während ein Stück live gespielt wird, wird das Obertonspektrum wichtiger Töne künstlerisch und für das Publikum nachvollziehbar visuell dargestellt. Zusätzlich reagiert die Darstellung live auf die Lautstärke der Töne und auf die Geräusche in der Umgebung, sodass auch auf dieser Ebene die Musik visuell erfahrbar wird.

Das Projekt vermittelt dem Publikum zum einen interessante Einblicke in die physikalisch-akustische Seite von Musik. Zum anderen ermöglicht es durch die Verknüpfung von auditiven und visuellen Eindrücken ein ganzheitliches Konzerterlebnis. Besonders die Darstellung der nicht einzeln wahrnehmbaren Obertöne bietet die Möglichkeit einer tieferen musikalischen Wahrnehmung.

Projektteam:

  • Helena ??? (Musik)
  • Jonas ??? (Medieninformatik)
  • Marius ??? (Medieninformatik)

 

Coaches:

  • Fabian Bitter (TH Nürnberg)
  • Simon Scharf (HfM)
  • Jan Pfitzer (HfM)

 

Lehrende:

  • Prof. Dr. Emilia Parada Cabaleiro (Musik)
  • Prof. Dr. Sebastian Trump (Musik)

VLUTELICHT

Neue Spielräume: Dimensionen der Interaktion mit Klang und Licht

„VLUTELICHT“ bietet eine innovative Licht-/Klanginstallation, bei der Besucher*innen
durch Nachpfeifen spielerisch mit dem „VLUTER“ – einem holografischen Phantasie-Tier – interagieren.

Durch das Pfeifen wird die Person im Raum lokalisiert und je nach Übereinstimmung mit der vorgepfiffenen Melodie reagiert der VLUTER mit verschiedenen Emotionen. Das Projekt fördert durch die Kombination aus Holografie, Klanginteraktion und Standorterkennung ein neues Bewusstsein für alternative Interaktionsformen.

Die Installation verwendet den Pepper-Ghost-Effekt, um „VLUTER“ als 3D-Hologramm auf einem LED-Bildschirm darzustellen. Audiosensoren erkennen das Pfeifen und eine spezialisierte Software lokalisiert die pfeifende Person, was eine gezielte Steuerung der interaktiven Elemente erlaubt. Dies ermöglicht eine dynamische Reaktion basierend auf der Position der Teilnehmer, wodurch ein einzigartiges, immersives Erlebnis geschaffen wird. Eine eigens kreative Soundscape und Characterdesign mit Animation geben dem Projekt Tiefe.

Projektteam:

  • Andrea Kähm (Interaction Design)
  • Erik Nissl (Interaction Design)
  • Johannes Brandl (Interaction Design)
  • Benjamin Dörfler (Medieninformatik)
  • Fiona Zimmermann (Musik)

 

Coaches:

  • Fabian Bitter (TH Nürnberg)
  • Simon Scharf (HfM)
  • Jan Pfitzer (HfM)

 

Lehrende:

  • Max Häßlein (Interaction Design)
  • Prof. Dr. Emilia Parada Cabaleiro (Musik)
  • Prof. Dr. Sebastian Trump (Musik)
  • Christian Axenie ??? (Informatik)
  • Korbinian Riedhammer ??? (Informatik)