Interaktive Ankleidekabine
Bereits heute werden vermehrt interaktive Tools eingesetzt, um Kunden bei der Auswahl passender Produkte zu unterstützen. Hierbei handelt es sich bisher jedoch meist um geführte Auswahlstrecken zum Auffinden der richtigen Produktkategorie. „Unser Ansatz zur Vermeidung von Rücksendungen im Bekleidungsbereich und damit erhöhter Ressourceneffizienz besteht darin, dass man die Produkte bereits am Computer virtuell anprobieren kann, um eine möglichst präzise Vorauswahl bezüglich Passform und persönlichem Geschmack zu treffen – dabei erhält man im besten Fall fast alle notwendigen Informationen, die man durch ein physisches Anprobieren in der Umkleidekabine erhalten würde. Lediglich das Tasterlebnis des Stoffes oder das Tragegefühl ist hier noch nicht darstellbar“, so Projektleiter Prof. Dr. Groth vom Institut für Informationssysteme der Hochschule Hof (iisys).
Mensch-Maschine Schnittstelle
Möglich machen soll diesen Mehrwert ein im Rahmen der Forschungsarbeit entstehender Demonstrator, der über eine multimodale Mensch-Maschine Schnittstelle verfügen wird. Diese verwendet neben dem aktuellen Kamerabild des Benutzers auch Bilder der Artikel und Daten wie Artikelabmessungen, Personengrößen und unterschiedliche Posen. „So ist es möglich, eine fotorealistische und größenkorrekte Darstellung des gewählten Kleidungsstückes virtuell an den Kunden anzupassen“, erläutert Projektleiter Prof. Dr. Christian Groth.
Zwar gäbe es bereits Computermodelle, die versuchten Kleidungsstücke an Personen darzustellen, räumt Prof. Groth ein. Allerdings: „Dabei wird aber die Größe nicht berücksichtigt, sondern die Kleidungsstücke passen grundsätzlich immer genau – und die Enttäuschung erwartet einen dann oft erst nach der Zustellung der Bestellung“, erklärt Projektmitarbeiter Bastian Scharnagl.
Bald Livetest auf Website des Projektpartners
Um dies zu verhindern, sucht und adaptiert die Forschungsgruppe des iisys geeignete Modelle generativer KI, welche es ermöglichen Kleidungsstücke virtuell an Personen anzupassen. „Wir erweitern diese, so dass wir multimodale Eingabedaten verarbeiten können. Anschließend trainieren wir die KI-Modelle so dass eine realistische Einschätzung der Größe möglich ist“, ergänzt Prof. Groth. Für das Training stellt Projektpartner „pureshirt“ verschiedene Daten wie Produktfotos an einem menschlichen Modell sowie Schnittmuster und Größenangaben zur Verfügung. Als weiterer Projektschritt werden dann synthetische Bilder mit Hilfe einer Rendering-Software erstellt, um die Qualität der KI-Modelle weiter zu verbessern. Der dabei entstehende Demonstrator wird durch den Projektpartner schließlich auf dessen Website implementiert. „So erhalten wir ausreichend Rückmeldungen über die Akzeptanz und die Qualität der erzeugten Bilder“, so Prof. Groth.
Open-Source-Lösung für kleine und mittlere Unternehmen frei verfügbar
Auch die Verfügbarkeit der Lösung ist neu – denn die im Projekt entstehenden Modelle sollen als Open Source Software veröffentlicht werden: „Das bedeutet, dass sie einer Vielzahl an Unternehmen zugutekommen und vor allem kleine und mittlere Unternehmen davon profitieren können“, so Prof. Groth hoffnungsvoll.