Berlin - Passt die Brille zu meiner Gesichtsform? Ist der Lippenstift farblich auf den Lidschatten abgestimmt? Steht mir das Make-up? Häufig wendet man sich in Modefragen an den Partner, die Partnerin oder die beste Freundin, die einen beim Shopping-Trip in die Stadt begleitet. In Drogeriemärkten lassen sich die Produkte gleich auf der Haut testen. Doch Corona hat alles verändert: Beauty-Produkte werden zunehmend online bestellt, die Besuche in stationären Geschäften nehmen ab – zumal die Tester aus Hygieneaspekten nicht mehr allzu vertrauenswürdig erscheinen.

Die Schönheitsindustrie hat auf die veränderten Konsumgewohnheiten reagiert: So bieten Drogeriemärkte und Kosmetikkonzerne ihren Kunden an, Make-up oder Lippenstift virtuell zu testen. Zum Beispiel bei L’Oréal: Der Kunde wählt einfach eine Produktreihe, die er oder sie ausprobieren möchte, und klickt auf den Button „virtuell testen“. Dann kann der Kunde das Produkt an seinem Gesicht sehen – entweder durch Hochladen eines Selfies oder durch Aktivieren der Kamera im Livebild. In dem virtuellen Spiegel wird dann simuliert, wie der Lippenstift oder Lidschatten an einem aussieht. Kontaktlos, ohne Infektionsrisiko.

Eine Make-up-Linie, die rein digital existiert

L’Oréal hat die Digitalisierung schon vor Ausbruch der Pandemie konsequent vorangetrieben. 2018 hat der Kosmetikkonzern die kanadische Augmented-Reality-Firma ModiFace übernommen. Mit der Expertise hat L’Oréal eine Reihe von Tools entwickelt, die das virtuelle Konsumerlebnis aufmotzen sollen. Zum Beispiel die App „Style My Hair“, mit der sich verschiedene Haarfarben im Livemodus in 3D ausprobieren lassen. Oder Skin Genius, ein mit Dermatologen entwickeltes Online-Tool, das mithilfe von Künstlicher Intelligenz (KI) die Alterungsprozesse der Haut simuliert und passende Produkte empfiehlt. Die Software analysiert dazu klinische Parameter wie Falten, Straffheit und Hautton und gleicht diese mit 10.000 Bildern in einer Datenbank ab. Der Algorithmus als Stilberater.

Mit Signature Faces bietet L’Oréal eine Make-up-Linie an, die rein digital existiert: Statt einen Lippenstift oder Lidschatten auf die Haut aufzutragen, wird dieser quasi als digitale Zusatzschicht auf das (Bewegt-)Bild projiziert – ähnlich wie ein Instagram-Filter. So kann man beispielsweise bei einer Videokonferenz mit einem extravaganten Lidschatten Distinktionsmerkmale setzen. Während Bekleidungsunternehmen durch die Corona-Pandemie starke Umsatzeinbrüche erlitten, konnte die Beauty-Industrie profitieren. Ob man geschminkt ist, sieht man in Videocalls; welche Hose man trägt, dagegen nicht.

Der virtuelle Raum lässt sich ganz anders bespielen. So hat die Edel-Boutique Machine-A für die London Fashion Week eine Augmented-Reality-App entwickelt, mit der Kunden im Geschäft auf ihrem Smartphone-Display schon mal die neue Kollektion der Modehäuser bestaunen können. Durch Augmented Reality wird die begrenzte Ladenfläche erweitert und ein digitaler Showroom für Marken geschaffen.

Auch Google setzt auf digitale Konsumerlebnisse. Der Tech-Konzern hat in Kooperation mit ModiFace ein Werkzeug entwickelt, mit dem sich virtuell Beauty-Produkte testen lassen. So können Nutzer im Livebild-Modus verschiedene Farbtöne eines Lippenstifts ausprobieren. Ein ähnliches Feature hatte Google zuvor bereits für seine Videoplattform YouTube ausgerollt. Dort geben Influencer vor Hunderttausenden Followern Schminktipps. Was liegt näher, als neben einem Werbeclip gleich einen Tester im virtuellen Raum aufzustellen?

Information und Konsum sind immer stärker miteinander verwoben

2017 hat Google seine Bilderkennungs-App „Lens“ vorgestellt, die Objekte nicht nur besser erkennen, sondern auch passende Handlungsvorschläge unterbreiten soll. Wer seine Kamera vor eine Blume hält, bekommt nicht nur Art und Gattung angezeigt, sondern kann sich gleich zum nächstgelegenen Floristen lotsen lassen. Mit Google Lens können Nutzer beispielsweise in der Bildersuche herausfinden, welche Krawatte oder Brille eine Person trägt – und das Produkt gleich im Netz bestellen. Information und Konsum sind immer stärker miteinander verwoben.

Die Modeindustrie frohlockt. Wenn das Smartphone zur mobilen Ankleide wird, lassen sich nicht nur teure Verkaufsflächen in Innenstädten sparen. Die Unternehmen können die Kundschaft viel zielgenauer adressieren und mithilfe von KI personalisierte Beauty-Tipps unterbreiten. Das spart Personal und Geld. Wer braucht noch Verkaufsberater, wenn es Algorithmen gibt? Auch in der virtuellen Realität wittern Modeunternehmen das große Geschäft: Der Look von Avataren lässt sich mit einem digitalen Dress personalisieren.

Virtuelle Influencer wie Lil Miquela oder Shudu tragen schon heute Luxus-Taschen von großen Modehäusern auf ihren Instagram-Accounts zur Schau. Die Hoffnung der Industrie: So wie Gamer mit In-App-Käufen für eine bessere Ausrüstung ihrer Spielfiguren bezahlen, lassen sich bald auch virtuelle Objekte für reale Menschen monetarisieren. Der Vorteil: Virtuelle Kosmetika benötigen keine ökologisch fragwürdigen Ressourcen wie Palmöl, für die riesige Flächen Regenwald gerodet werden müssen. Der Rohstoff, den die Industrie für virtuelle Make-ups braucht, lässt sich beliebig nachproduzieren: Daten.

Doch die Entwicklung ist keine Einbahnstraße. Amazon hat im vergangenen Jahr seine smarte Kamera Echo Look überraschend eingestellt. Die 2017 lancierte Kamera sollte den hörenden Netzwerklautsprecher Echo mit Augen ausstatten. Der Kunde konnte per Sprachbefehl („Alexa, mach ein Foto von mir“) Fotos zweier verschiedener Outfits machen, die über die Style-Check-Funktion von einem Computer bewertet wurden.

Datenschützer befürchteten damals, dass Amazon noch viel mehr aus den Ganzkörperfotos seiner Kunden ablesen kann, etwa ob sie schwanger, übergewichtig oder depressiv sind. Doch die ganze Aufregung war vergebens, denn das Gadget wurde kaum nachgefragt. Viele Kunden sind bereit, sich beim Styling über die Schultern schauen zu lassen. Aber in ihren Kleiderschrank wollen die meisten dann doch keine privaten Einblicke gewähren.