Sexualisierung und Kunstraub: KI-App Lensa in der Kritik

Seit Wochen lassen Internet-User ihre Bilder von Lensa bearbeiten – nun steht die App in der Kritik. Es geht um Urheberrecht, Datenschutz und Sexismus.

Das eigene Gesicht, künstlerisch verfremdet: Das ist der Reiz, der für viele hinter der App steckt.
Das eigene Gesicht, künstlerisch verfremdet: Das ist der Reiz, der für viele hinter der App steckt.Montage: Salvatore Saba/Berliner Zeitung

Man muss nur eine App herunterladen, ein paar Dutzend Fotos von sich hochladen und los geht’s: Nach einer halben Stunde werden bis zu 50 Bilder ausgespuckt, die von einer Künstlichen Intelligenz erstellt wurden. Ende des vergangenen Jahres war das ein großer Hype in den sozialen Medien, die buchstäblich von solchen „Avatar-Fotos“ überschwemmt wurden. Besonders bekannt ist die App Lensa AI, die laut der Statistik-Plattform Statista zwischen November und Dezember 2022 rund sechs Millionen Mal heruntergeladen wurde.

Was lange vor allem als cool und witzig galt, wird nun mehr und mehr hinterfragt: Die KI-Technologie, die hinter der Lensa-App steckt, birgt Risiken – von einer Sexualisierung ihrer selbst, von der einige Nutzerinnen berichten, bis zu einer teils fragwürdigen Datenschutzerklärung, die wie so oft ungelesen angenommen wird. Auch Künstlerinnen und Künstler kritisieren die App Lensa, die Bilder häufig im Stil eines bestimmten Kunstschaffenden verändert; Urheberechte würden von den Betreibern der App verletzt.

Was ist Lensa und wer hat diese App entwickelt?

Lensa ist eine Fotobearbeitungs-App, die Selfies in Avatare umwandelt, in digitale Stellvertreterfiguren also, deren Aussehen auf dem der echten Person basiert. Die Software kann auch für die Bearbeitung von Fotos benutzt werden. Die Dienstleistung ist nur für sieben Tage kostenfrei, danach müssen Nutzerinnen und Nutzer 49,99 Euro für ein Jahresabo zahlen. Dennoch hat sich die App schnell auf die ersten Plätze der iPhone- und Android-Store-Charts hochgearbeitet.

Auch wenn erst seit einigen Monaten viel von Lensa gesprochen wird, ist die App nicht neu. Sie wurde bereits im Jahr 2018 von Prisma Labs entwickelt. Seinen Sitz hat dieses Unternehmen im Silicon Valley, gegründet wurde das Start-up 2016 von fünf russischen Softwareentwicklern: Alexey Moiseenkov, Oleg Poyaganov, Ilya Frolov, Andrey Usoltsev und Aram Hardy. 2018 trat Moiseenkov als CEO von Prisma Labs zurück und verließ die Firma, die seitdem von Usoltsev geleitet wird.

Warum fühlen sich Nutzerinnen durch die App sexualisiert?

Gerade weibliche Nutzerinnen, heißt es nun immer öfter, würden durch die App Lensa sexualisiert. „Von 100 Avataren, die generiert wurden, trugen 16 kein Oberteil und weitere 14 zeigten mich mit hauchdünnen Kleidern und in erotischen Posen“, schrieb etwa die KI-Expertin Melissa Heikkilä, die die App ausprobiert hat, in einem Artikel für das Onlinemagazin MIT Technology Review. „Komischerweise habe ich realistischere Porträts von mir bekommen, als ich der App angab, ich sei ein Mann.“

Wer liest schon die Datenschutzbestimmungen?

Zudem steht die Frage im Raum, was eigentlich noch so mit den Fotos passiert, die auf der App zur Bearbeitung hochgeladen werden. Das steht zwar in den Datenschutzbestimmungen, doch diese werden erfahrungsgemäß selten in Gänze gelesen. Bis zum 15. Dezember war bei einem Blick in die Bestimmungen noch deutlich geworden: Ja, Lensa kann die hochgeladenen Fotos auch benutzen, um die Künstliche Intelligenz, die hinter der App steckt, weiter zu trainieren.

Zwar wurde in den Datenschutzbestimmungen erst mal angegeben, dass die Fotos für nichts anderes als Filter und Effekte benutzt würden. Es wurden aber ein paar Ausnahmen aufgezählt wie zum Beispiel „das Trainieren von neurologischen Network-Algorithmen“ oder die Nutzung, „um die Funktionsfähigkeit von Lensa zu optimieren und zu überwachen“. Mitte Dezember wurden die Bestimmungen dann verändert – wohl auch, weil Kritik daran laut geworden war. Heute heißt es dort: „Wir benutzen ihre Daten nicht, um Künstliche Intelligenzen zu trainieren“.

Was ist aus dem AI Act geworden?

Seit Jahren wird in Deutschland, aber auch auf EU-Ebene über den sogenannten AI Act diskutiert; eine Regulation, die Nutzerinnen und Nutzer im Hinblick auf KI-Technologien auf unterschiedliche Weise schützen soll. Schwer tun sich die Verantwortlichen dabei aber allein schon mit der reinen Definition, was Künstliche Intelligenz überhaupt ist. Und mit Blick auf Angebote wie Lensa, aber auch den Chatbot ChatGPT, der selbstständig Texte erarbeitet, scheint der technologische Fortschritt oft so schnell zu sein, dass er sich kaum noch rechtzeitig regulieren lässt.

Wie funktioniert die Technologie?

Und wie funktioniert die Technologie bei der App Lensa? Lensa nutzt eine als Stable Diffusion (SD) bekannte Technologie. Dabei handelt es sich sozusagen um einen „Deep-Learning-Text-zu-Bild-Generator“. Hauptsächlich wird so eine Technologie zur Generierung detaillierter Bilder auf der Grundlage von Textbeschreibungen verwendet; cartoonartige Avatare kann die Software auch erschaffen. Damit das funktioniert, wurde Stable Diffusion anhand von Bild- und Beschriftungspaaren aus LAION-5B trainiert, einem öffentlich zugänglichen Datensatz, der aus „Common Crawl“-Daten des Internets abgeleitet wurde.

Leichter übersetzt bedeutet das: Die Software wird mit einer Menge Bildern gefüttert, die automatisch dem Internet entnommen werden – ohne Rücksicht auf ihren Ursprung. „Stable Diffusion hat es geschafft, das Uhrheberecht Tausender Bilder zu umgehen, indem man die Technologie angeblich für Non-Profit-Zwecke entwickelt hat“, kommentierte die Künstlerin Megan Rae Schroeder im Dezember in einem Tweet, der viral gegangen ist. „Es wurde behauptet, SD sei ‚ethisch und legal‘, dabei realisieren die Firmen, die dieses Open-Source-Modell nutzen, ja Profit.“