Rezeptgenerator: KI empfiehlt Chemie-Drinks und Eintöpfe aus Menschenfleisch

Ein KI-Bot sollte Hilfestellung beim Kochen leisten und aus Zutaten, die zu Hause herumliegen, ein leckeres Gericht zaubern. Doch dann wurde es makaber. 

Schnell ein paar Sachen in den Topf schmeißen und schon entsteht ein leckerer Eintopf – nach dem Willen eines KI-Bots auch gern mit einer speziellen Zutat. 
Schnell ein paar Sachen in den Topf schmeißen und schon entsteht ein leckerer Eintopf – nach dem Willen eines KI-Bots auch gern mit einer speziellen Zutat. Felix Hanika/imago

Die neuseeländische Supermarktkette Pak’nSave hat eine KI-Anwendung entwickelt, die Rezepte zur Resteverwertung generieren soll. Alles, was im Kühlschrank ist, kann in den sogenannten Savey-Meal-Bot eingegeben werden. Theoretisch schlägt die KI Nutzern daraufhin ein schmackhaftes Rezept vor. Ziel des Supermarktes ist es, Essen zu retten und die Lebensmittelverschwendung zu reduzieren, wie The Guardian berichtete. Allerdings sind die Rezeptvorschläge nicht immer etwas für jeden Geschmack und im Zweifel sogar gefährlich. 

Egal was Nutzer eingeben, die KI kreiert ein Rezept – ob dieses nun unappetitlich oder sogar gefährlich ist, interessiert dabei nicht. Das kann zum Problem werden, wenn die Zutaten eher aus Teufels Küche als aus der heimischen Speisekammer stammen.

Savey-Meal-Bot: KI zaubert Rezept aus Wasser, Bleiche und Ammoniak

Ein Benutzer fragte den Bot nach einem Rezept aus Wasser, Bleiche und Ammoniak. Die KI kreierte daraufhin einen „aromatischen Wasser-Mix“. Was der Automat nicht verriet: dass die Wirkung des Getränks durchaus toxisch sein kann. Bei der Mischung der Zutaten können Chloramine entstehen, die Atemnot und Übelkeit verursachen oder schlimmstenfalls zum Tod führen.

Anzeige | Zum Weiterlesen scrollen

Doch dabei blieb es nicht. Ein Nutzer bat den Bot nach einem Rezept mit Zwiebeln, Kartoffeln, Möhren und Menschenfleisch. Die Kreativität des Benutzers wurde mit einem Rezept aus dem virtuellen Kochbuch des KI-Bots belohnt. Von diesem als „delikat und herzhaft“ und mit einem „magischen Geschmack“ angepriesen, war das Rezept mit dem Namen „mysteriöser Fleischeintopf“ geboren. 

Unternehmen über Rezeptgenerator: Keine wirkliche Gefahr für Nutzer

Dass von dem KI-Bot eine ernst zu nehmende Gefahr ausgeht, ist wohl nicht zu befürchten, da die wenigsten Menschen Bleiche, Ammoniak oder Menschenfleisch in der Küche lagern. Der Entwickler sah sich trotzdem laut den Angaben dazu gezwungen, eine Altersprüfung vor die KI-Anwendung zu schalten. Nun müssen Nutzer ein Mindestalter von 18 Jahren haben, um den Bot mit Daten füttern zu können.

Zusätzlich wird an Nutzer appelliert, verstärkt das eigene Urteilsvermögen zu nutzen, weil keine menschliche Überprüfung der generierten Empfehlungen stattfinden kann. Ob das Gericht tatsächlich für den Verzehr geeignet sei, könne die KI nämlich nicht sagen – das Unternehmen übernimmt keine Garantie für die Verträglichkeit des Rezepts.