Ein aktueller Fall zeigt, wie rasant sich KI-gestützter Betrug entwickelt: Eine Studentin buchte eine Airbnb-Unterkunft in Manhattan und wurde später mit manipulierten Fotos eines vermeintlich beschädigten Couchtisches konfrontiert. Airbnb forderte zunächst Schadensersatz, weil das Unternehmen dem Fälscher glaubte. Dieser Fall ist nur ein Beispiel für Betrugsmaschen, bei der künstliche Intelligenz eingesetzt wird.

KI-Betrug nimmt immer mehr zu. In einem aktuellen Fall hat es Airbnb getroffen.
- Ein Airbnb Host hat versucht, mit durch KI gefälschten Bildern, eine Mieterin zu betrügen, indem er Schäden an der Mietwohnung vortäuschte.
- Im Falle des Airbnb Betrugs hat sich die Situation zugunsten der Mieterin entwickelt, nachdem diese den Fall an die Öffentlichkeit gebracht hat.
- Es existieren zahlreiche raffinierte KI-Betrugsmaschen und es werden immer mehr. Es ist unverzichtbar, sich über die Tricks und Maschen zu informieren.
Der Airbnb-Fall im Detail
Wie unter anderem der Guardian berichtet, wurde Londoner Studentin von einem Airbnb-Host beschuldigt, immense Schäden an Mietmöbeln verursacht zu haben und forderte umgerechnet 14.000€ von ihr. Er legte angebliche Beweisfotos vor, die jedoch bei näherem Betrachten inkonsistent waren – so variierte zum Beispiel ein Riss im Couchtisch variierte auf verschiedenen Aufnahmen. Trotzdem verlangte Airbnb zunächst über 6.000€ Schadensersatz.
Erst nach Einspruch mit Zeugen und Medieneinfluss wurde die Forderung zurückgezogen, die komplette Buchung erstattet und eine interne Fallprüfung eingeleitet. Airbnb entfernte auch die negative Bewertung des Hosts, warnte diesen wegen Verstoßes gegen die Nutzungsbedingungen und drohte mit Statusverlust.
Betrugsmaschen mit KI-Technologien: Viele Möglichkeiten
Der Airbnb Fall ist leider nur einer von vielen. KI an sich und die immer neuen Technologien, die auf künstlicher Intelligenz basieren, ermöglichen Betrügern heute verschiedene kreative Maschen, die in ihrer Wirkung und Zielsetzung variieren und sich von den bisher gängigen Betrugsmaschen untrscheiden:
Gefälschte Immobilienanzeigen
Kriminelle erstellen mit generativen KI-Tools realistisch wirkende Bilder von Ferienwohnungen oder Häusern. Diese Bilder erscheinen oft professionell, doch führten Tests auf Plattformen wie Airbnb, Booking.com und Agoda dazu, dass gefälschte Angebote in Minuten freigeschaltet wurden – ohne Adressverifikation oder Bildprüfung. Viele Nutzer erkennen solche Bilder nicht als fake. Betrüger kassieren Vorauszahlungen oder Kautionen, die nicht rückholbar sind.
Manipulierte Dokumente und Deepfake-Identitäten
Laut dem Identity Fraud Report 2025 [Seite auf Englisch] von Entrust und Onfido stiegen digitale Dokumentenfälschungen 2024 um 244%, und erstmals überwiegen sie gegenüber physischen Fälschungen. Deepfake-Angriffe, wie manipulierte Videos oder synthetische Identitäten, traten im Schnitt alle fünf Minuten auf. Finanzdienstleister, Kryptoplattformen und Kreditanbieter sind besonders betroffen. Mit minimalem Aufwand lassen sich biometrische Systeme austricksen oder Konten unter falschem Namen eröffnen.
KI-gestützte Phishing- und Vishing-Angriffe
Scammer nutzen KI, um hochpersönliche Nachrichten, sogar Stimmen von Angehörigen (Vishing – Voice Phishing) zu generieren. So entstehen täuschend echte Betrugsversuche via E‑Mail, Chat oder Telefon – in manchen Fällen in der Stimme vertrauter Personen. Durch emotionalen Druck und Zeitnot manipulieren die Täter Opfer zur Zahlung.
Gefälschte Jobangebote und Tech‑Support-Tricks
Mit KI erzeugte Stellenanzeigen, fiktive Arbeitgeberprofile und simulierte Interviews sollen sensible Daten abgreifen oder Vorauszahlungen erzwingen. Im Bereich Tech‑Support nutzen Betrüger Tools wie Quick Assist, um Fernzugriff zu verlangen – Microsoft meldete täglich Tausende solcher Angriffe. KI dient dabei zur Erstellung glaubwürdiger Vorgeschichten und Ablenkung.
So erkennst du KI-Betrug
Die zunehmende Verbreitung von KI-gestütztem Betrug stellt auch erfahrene Nutzer vor Herausforderungen. Viele Manipulationen wirken täuschend echt und lassen sich nicht auf den ersten Blick als solche entlarven. Dennoch gibt es typische Merkmale und Anzeichen, die auf einen möglichen Betrugsversuch hindeuten können – sowohl in Bildmaterial als auch im Verhalten vermeintlicher Anbieter. Folgende Punkte gelten als besonders relevant bei der Einschätzung verdächtiger Inhalte oder Interaktionen:
- Bilder wirken makellos, aber unnatürlich: KI-generierte Fotos weisen häufig subtile Unstimmigkeiten auf: Schatten, Reflexionen oder Perspektiven passen nicht zueinander. Spiegelbilder fehlen, Licht wirkt flach oder identisch in verschiedenen Bildern desselben Raums – ein Hinweis auf digitale Bearbeitung.
- Details sind inkonsistent über mehrere Aufnahmen: Im Airbnb-Fall war entscheidend, dass ein angeblicher Tischriss auf zwei Bildern unterschiedlich aussah – was bei realen Fotos unmöglich ist. Solche Unterschiede deuten stark auf KI-Manipulation hin.
- Extrem günstige Angebote oder ungewöhnliche Zahlungswege: Wenn ein Luxus-Ferienhaus zu Dumpingpreisen angeboten wird oder Vorauszahlungen per Überweisung statt über die Plattform verlangt werden, handelt es sich oft um Betrug.
- Angebote über Social Media statt offizielle Potale: Buchungslinks über TikTok, Instagram oder private Messenger führen häufig zu Fake-Angeboten. Betrüger nutzen den Vertrauensvorschuss durch Influencer-Empfehlungen, ohne juristische Absicherung oder Käuferschutz.
- Profilangaben sind unvollständig oder widersprüchlich: Fehlende Adresse, kein Impressum, keine verifizierten Bewertungen oder generische, identische Rezensionen lassen die Echtheit eines Angebots zweifelhaft erscheinen.
- Stimmklone und geskriptete Anrufe: Bei Vishing oder Voice-Fakes klingt die Stimme vertraut, doch Aussagen wirken mechanisch oder enthalten Inhaltsfehler (z. B. falsche Namen, widersprüchliche Informationen gegenüber bekannten Fakten).
Maßnahmen bei Verdacht oder bereits entstandenem Schaden
Kommt es zu einem Betrugsverdacht oder ist bereits ein konkreter Schaden durch KI-Manipulation entstanden, zählt vor allem schnelles und bedachtes Handeln. Wer gezielt vorgeht, Beweise sichert und die richtigen Ansprechpartner kontaktiert, kann finanzielle Verluste begrenzen und rechtliche Schritte einleiten. Die folgenden Maßnahmen haben sich in der Praxis als besonders wirkungsvoll erwiesen:
- Widerspruch über Plattform einlegen: Betroffene sollten den Fall sachlich und mit Indizien begründen – beispielsweise Bildunterschiede erklären und vorhandene Zeugen anführen. Airbnb zeigt im aktuellen Fall, dass erfolgreiche Berufung möglich ist.
- Beweise sichern und dokumentieren: Screenshots von Inseraten, Chatverläufen, Zahlungsbelegen und Bildern mehrmals speichern – lokal und in der Cloud.
- Zahlungspartner bzw. Bank informieren: Zahlungsdienstleister wie Kreditkarte oder PayPal bieten Chargeback-Möglichkeiten – möglichst schnell handeln.
- Strafanzeige in Erwägung ziehen: Bei erheblichem Schaden lohnt sich das Einschalten der Strafverfolgung, da Betrug strafrechtlich verfolgt werden kann.
- Medienkontakt herstellen: Im Airbnb-Beispiel führte Berichterstattung zu einem Umdenken des Plattformbetreibers. Öffentlichkeit kann Druck erzeugen.
- Eigene Sicherheitsvorkehrungen optimieren: Sichere Passwörter, Zwei-Faktor-Authentifizierung, Misstrauen bei unerwarteten Links und Zahlungen außerhalb offizieller Plattformwege schützen vor weiterem Schaden.
Notwendige Gegenmaßnahmen
KI‑basierter Betrug ist kein isoliertes Phänomen, sondern Teil eines globalen Trends: Generative KI erlaubt Betrügern ihr Vorgehen zu automatisieren, personalisieren und skalieren – bei sehr geringem Aufwand und Kosten.
Große Portale sind in der Pflicht, ihre Prüfprozesse fundamental zu verbessern: Bilder sollten algorithmisch und manuell auf Konsistenz, Metadaten und Wiederholungen überprüft werden, Zahlungswege standardisiert, und bei Streitfällen sollten menschliche Gutachter ergänzend zum Algorithmus eingesetzt werden.
Portale müssen zudem betrügerische Nutzer schnell sanktionieren – so wie Airbnb einen Host warnte und dessen Superhost-Status infrage stellte. Die Sensibilität der Nutzer gegenüber Fake-Angeboten muss geschärft werden: Aufklärungskampagnen sollten besonders Generationen sensibilisieren, die Social Media stärker zur Buchung nutzen.
Unternehmen im Finanzbereich sollten sich auf Deepfake-Angriffe vorbereiten, etwa im Rahmen von Fraud-as-a-Service. Sie brauchen vernetzte Detection-Systeme, Konsortialvalidierung und Behavioral Analytics, um Identitätsbetrug frühzeitig zu erkennen. Nur ein vielschichtiger Ansatz aus Technologie, menschlicher Kontrolle und Nutzeraufklärung kann Vertrauen in digitale Plattformen langfristig schützen.